filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
P3-8.pdf
# Universal Dependencies における述語並列記述の展望 伊藤 薫 九州大学 言語文化研究院 ito@flc.kyushu-u.ac.jp ## 1 はじめに ## 1.1 Universal Dependencies とは Universal Dependencies (UD) は通言語的に統一された方法で依存構造や品詞などについてアノテー ションが付与されたコーパス群を開発する国際プロジェクトである [1]。UD は依存構造が内容語主辞で付与されていること、Universal POS (UPOS) と呼ばれる品詞体系や依存関係タグが定義され、コーパスに付与されていることなどを特徴とする。また、人手アノテーションのしやすさやパージング精度の高さなど、言語学的妥当性以外も考慮して設計されている [2]。しかし、UD は進行中のプロジェクトであるため問題も多く抱えており、日本語UDにおける並列表現もその 1 つである。本論では Universal Dependencies (UD) ver. 2.7 [3] における日本語の述語並列に関わる問題について、UDコーパスを用いた日英比較から得られたデータと、言語学で蓄積された並列に関する知見をもとに議論し、今後の展望について述べる。 ## 1.2UDにおける並列表現の定義 本節では、UD における並列表現について説明するため、公式サイト [3] に掲載されている依存関係タグに関する記述をもとに、解説を加えながら紹介する。UDにおいて、並列表現は等位接続詞を表す品詞タグ CCONJ、等位項を表す関係タグ conj、及び、等位接続詞に掛かる関係タグ $c c$ によって表現される。conj タグは等位接続詞で結合される等位項 (conjunct) であることを示すタグである。UD の方針として内容語を主辞としていることから、並列表現における最初の等位項が主辞とされ、それ以降の等位項は全て最初の等位項に依存すると定められている。最初の等位項とそれ以降の等位項は関係タグ conjで結ばれる。最後に、関係タグ cc は CCONJ とその主要部を結ぶ。UDでは等位接続詞が省略される場合(e.g. 句読点類のみで並列が示される場合)にも並列構造とみなすことを認めており、この場合は CCONJ, $c c$ がなく、conjのみで並列構造が表されることになる。 英語の並列表現をUD の体系で表す場合、CCONJ は 'and', 'or', 'but’ など、語やそれより大きい構成要素を統語的に従属させることなく結び、両者の間の意味関係を表すものとされる。また、conjについては UD 全体に向けた記述と大きな相違点は見受けられない。'either', 'both', 'neither' 等も CCONJ と見なされ $c c$ の対象に含まれる点が英語に関して若干特徴的と言えるだろう [3]。 ## 1.3UD Japanese の並列アノテーション 前節で見たように、UDにおいて関係タグ conj は最初の等位項を主辞として付与する、と定められているため、日本語のような右主辞の言語とは相性が悪い。日本語 UDでは conj タグが強制的に左主辞となる仕様であることから生じる不自然さを回避するため、名詞句、動詞句の並列で conj タグを使用せずにコーパスが構築されている。例えば、「食べて走る」では「て」によって2つの動詞句が並列されているが、「て」を従属接続詞とみなし 2 つの動詞を副詞句による修飾 ( $a d v c l$ ) としている [2]。 また、UD 2.7 における日本語コーパスで最大のものは UD Japanese-BCCWJ で、日本語UD のデータのおよそ 4 分の 3 を占める。これは BCCWJ-DepPara という日本語書き言葉均衡コーパス (BCCWJ) のコアデータに対して追加アノテーションを施したものを変換することで作成されている。BCCWJ-DepPara では並列アノテーションの付与対象は名詞句の並列、部分並列とされており、日本語の節間の並列関係を従属関係と識別するのが困難なため述語並列は対象外とされている [4]。従って、今後上述の主辞に関わる問題が解決されたとしても、元コーパスに信頼のおけるアノテーションが施されている名詞句などの並列と比較して、他の日本語 UD における述 語並列のアノテーションはデータに反映されにくい状況が続くと考えられる。 ## 2 述語並列の日英比較 前節では、UD における並列と日本語UDにおける述語並列の記述に関する問題を概観した。多言語パラレルコーパス PUD treebankを用いて英語の並列表現が日本語 UDでどのように扱われるかを、翻訳と UD タグという観点から調査する。 ## 2.1 PUD treebank Parallel UD (PUD) treebank は 2017 年の記述によると 1,000 文、 18 言語からなるパラレルコーパスである [1]。本論では英語と日本語の UD を対象としているため、PUD の英語版である UD English-PUD および日本語版である UD Japanese-PUD (以下、それぞれ PUD-en, PUD-ja と略記する) を使用した。 1,000 文のうち 750 文は英語の文書から集められ、残りの 250 文は他の 4 言語からの翻訳である。なお、本論では多重に翻訳された文を除いた分、つまり、PUD-en において原文が英語である文 (文 ID が n01 または w01 で始まる文)を対象とした。収録されている文は Wikipedia とオンラインニュースから無作為に抽出されたものである。 ## 2.2 手法 まず、PUD-en の英語を言文とする 750 文から動詞 (VERB) と動詞が関係タグ conj で結ばれている関係を全て抽出し、PUD-jaでどのような形式で翻訳されているかを調査した。 ${ }^{1)}$ PUD-en からデータを抽出する際には、オンラインで提供されているコーパスインターフェイス Grew[5] を使用した。抽出した文に関して収集した情報は文 ID、本文、係り元と係り先の表層形、そのうち等位接続詞を伴うものについては上記に加え CCONJ タグのついた語の表層形である。次に、抽出した英語文に対応する PUD-ja の文を文IDによって検索し、目視で日本語訳を確認した。PUD-ja において注目したのは PUD-en における接続表現(主に CCONJ だが、句読点のみの場合なども含む)との対応であり、それらに対応する日本語  の接続表現の表層形、及び、XPOS に記載されている国語研短単位品詞を集計した。また、活用のある品詞の場合は品詞に活用形を追記した。 並列される動詞句や節の構造が翻訳文でも保たれている場合は、(1)のように先に出現する動詞に直接依存する接続表現もしくは連用形 2$)$ を収集したが、原文とは大きく異なる構造になっている場合や、(2)のように 3 つ以上の等位項がある場合も見受けられた。(2)の場合は、conj 関係タグで結ばれる動詞は 'works' と 'lives'、 'works' と 'breathes' の 2 組だが、後者の組に対応する日本語文については、後方の等位項を含む節の直前に出現する接続表現を収集を試みた。つまり、'works'と 'breathes’に関わる接続表現を日本語文で探す際は、'breathes’に対応する「生きている」の直前にある接続表現「暮らし」(動詞-一般-連用形)を集計対象とした。3) また、適切な接続表現が見つからない場合は(3)のように 「該当なし」4) とした。 (1) (a) A sacrococcygeal teratoma is a tumour that $d e$ velops before birth and grows from a baby's tailbone. (b) 仙尾骨部のテラトーマは、赤ん坊の誕生前に発生し、尾てい骨から成長する腫瘍である。(ID: n01051006, 強調筆者) (2) (a) It's fair to say that Rocco Catalano works, lives and breathes retro. (b) ロッコ・カタラーノ氏はレトロに働き、 らし、生きていると言ってもよい。 (ID: n01087005, 強調筆者) (3) (a) Isner, who produced some of his best tennis as he leveled at one set all and forced a decider, also paid his tribute. (b) 最高のテニスでワンセットオールで対戦を余儀なくされた、イスナーもまた、賛辞を送っている。(ID: n01142007,強調筆者) 2)日本語 UD では、サ変動詞は語幹名詞+動詞「する」とされる。 3)この方針は後述する PUD-en における接続詞の集計方法とは異なるが、これは英語においては同じ語から conj タグで表示される 3 つ以上の並列としてコーパスで記述されているのに対し、PUD-ja では連体修飾関係を示す $a d v c l$ タグで連鎖的にタグ付けされているという違いに基づく。 4)「ワンセットオール」の後の「で」は格助詞とタグ付けされている。 表 1 翻訳文中で対応する接続表現の品詞別頻度 ## 2.3 結果 PUD-en からは conj タグで結ばれる 175 組の動詞の組が抽出され、うち等位接続詞を伴う並列は 172 組であった。また、集計対象は conj タグの頻度であるため、3つ以上の等位項が並列されている場合は 「等位項 1 と等位項 2 」、等位項 1 と等位項 3$\lrcorner \cdots \cdots$. のように主辞を基準として個別に計上した。収集された等位接続詞の集計結果を付録の表 2 に示す。なお、括弧で括られた等位接続詞は 3 つ以上の等位項を持ち、等位項と等位接続詞が隣接していないことを表す。また、表中に大文字で NONE と表記したデータでは等位接続詞が見られず、カンマのみで並列が表されていた。付録の表 2 に見られるように、英語の等位接続詞は 'and' が大半 $(75 \%)$ を占め、次いで 'but', 'or'、更に少数の例としてカンマによる並列、 'as' ('as well as' の一部) が確認された。 次に、PUD-ja において対応する接続表現の頻度を品詞ごとに表 1 に示す。対応する接続表現がない場合は表中に「(該当表現なし)」としてまとめた。表の末尾には品詞の区別なく活用形のみでまとめた場合の数値も付記した。表 1 に示した接続表現のうち、日本語 UD で CCONJ タグがついているものは 「接続詞」のみであり、 5 例 $\left.{ }^{5}\right)(3.5 \%)$ と稀である。また、品詞としてはサ変動詞の連用形が最も多くを占めており、品詞を問わず活用形のみで集計すると半数以上 $(58.5 \%)$ を連用形による接続が占めている。連用形は一般的な日本語文法においては動詞の活用形の 1 つとされており並列表現の 1 形式でもある $[6,7]$ が、日本語 UDでは $a d v c l$ として主節に係る。 ## 3 考察 5)確認された表層形は「また」「しかし」「あるいは」「および」。 ## 3.1 日本語並列表現の多様性と UD 英語では表層形の種類が限られており、今回の調査では 'and', 'but', 'or', '(as well) as'の 4 種類のみであった。英語 UD の方針では 'both’ や 'either’ なども CCONJ に含まれるが、今回の結果には含まれなかった。一方、日本語では読点を除き 37 語が並列表現を含む英文の翻訳に使用されており、語幹ごとに別々に数えられる動詞の連用形を除いても 10 語6) と、英語に比べ種類が多いのが特徴である。 また、現状の日本語UDの仕様では並列表現が様々な UPoS に分散している。基本的に英語で CCONJ が出現する場合でも、日本語訳では CCONJ は出現せず、延べ語数で数えた場合に半数以上が連用形で表されることが明らかになった。また、連用形に次いで多い接続助詞は PUD-ja において SCONJ とされる。具体的には今回抽出された「し」「て」「が」 は全て SCONJ だが、これらは理論によっては全て並列を担う表現とされうる。また、英語では CCONJ とされる 'or' に対応する表現は「か」だが、これらは PUD-ja において PART とされる。他にも、PART とされる「たり」の扱いにはそもそも日本語学の中でも様々な立場があり、少なくとも並列を表す接続助詞とする立場 [6]、タ系連用形とする立場 [7] があるが、PUD-ja のデータには国語研短単位品詞で助詞副助詞とされているなど、基礎的な部分での困難もある。翻訳においても意味的な並列が保持されているのであれば、これらの扱いが日本語 UD における並列の記述方法に大きな影響を与えることになる。 ## 3.2 日本語の並列表現と UD の体系 UD は世界中の個別言語を 1 つの体系で記述しょうとするプロジェクトであるため、個々の言語への適用の際には問題が生じる場合もある。これらの問題は UD 以前に個別言語で整備されてきたデータの蓄積や UDへの対応状況というローカルな事情によるものから、類型論的挑戦である UD の仕様そのものが抱える問題まで様々である。 今回観察したデータには接続助詞「か」が接続詞「あるいは」と同時に出現する場合もあり、この場合は英語のように「か」を CCONJ と見なすと UD 上では二重に CCONJ が出現することになる。これは英語の 'either ... or ...' に相当する。また、現在のとこ 6)「また」「しかし」「か」「が」「し」「たり」「て」「と」「(ため)に」「(もの) の」 ろ「て」「が」は日本語UDにおいてSCONJとして夕グ付けされ、SCONJを伴う節と節を関係タグは多くの場合 $a d v c l$ となり、少なくとも conj は不適である。加えて、上記 2 つよりも問題は少ないが連用形による接続の場合、品詞タグ VERB が付与される語の内部に並列を示す特徵が組み込まれていることになり、独立した CCONJ は出現しない。そのため、連用形による述語並列を日本語 UDにおいて並列と認める場合、形式的には並列を表す表現があるものの、 UPoS としては VERB であるため CCONJ を伴わず conj が出現する例が多くなる。 上述のように、日本語では連用形や助詞によって並列を表すことが多い。そのため、英語と親和性が高そうに思われる UD の基準からすると、日本語の並列表現は CCONJ を伴わない非典型的な形式として記述することになる場合が多くなると思われる。特に、連用形の場合は並列を表す形式が語に内在しているため、現在のUDの体系では表現が難しい。UD では語に内在する特徴 (Features) を記述することができ、動詞的な屈折特徴としては時制、法、相等が設定されている。Features には Verbform という動詞の形式を表すカテゴリがあり、日本語の連用形やテ形は Conv (converb, 副詞的な従属接続標示することを主な機能とする不定動詞 [8]) であり、日本語の連用形 [9] やテ形 [8][9] を converb としている文献も存在する。ただし、この方法の場合は統語的に従属となることを示すに留まり、意味的に並列であることを示すことはできない。 ## 3.3 並列表現の認定基準 英語では conj タグが出現する例において等位接続詞が出現する場合が多く、カンマのみによる並列が少ないことを 2.3 で明らかにした。しかし、日本語の場合は述語並列の形式が英語に比べて多様であり、並列と従属の線引きも難しく、何を以て並列とするかも理論によって異なる。例えば、節の並列で言えば「主節に対して対等に並ぶ関係で結びつく節」を「並列節」とする統語面を重視する定義 [7] や、「2つ以上の異なる自体の時間的前後関係が解釈の際に問題にならない時、その事態は並列関係にある」という意味的側面を重視する定義 [6] がある。 また、BCCWJ-DepPara が節の分類の際に依拠している文法書 [10] では接続表現の形式ごとに従属節内部に出現可能な要素を検討して3つに分類しており、並列は従属節が表す意味の一部に組み込まれて いる。 また、形式のみで等位接続と従属接続が明確に分かれると思われる英語においても、同様の問題は存在する。例えば、'You drink another can of beer and I'm leaving." という例文では、前半の節が後半の節の条件として解釈でき、統語的には並列だが意味的には従属と見なせるとされる [11]。また、この議論を発展させて並列と従属は統語と意味の両面から見るべきだという提案もあり、上記 'and' の例を pseud-coordination、日本語の「て」による並列を pseudo-subordination(統語的には従属、意味的には並列)とする研究もある [12]。並列は多面的な現象であり、UD の体系の中で日本語の並列を記述するためには並列のどのような側面を重視して認定するかを考慮する必要がある。 ## 4 終わりに 本論では日本語 UDにおける述語並列の問題について議論し、現在の仕様では英語の並列表現が日本語訳の大半において従属節となっており、連用形や一部の接続助詞の扱いが重要であることを示した。 この状態は pseudo-subordination という観点から、現在の日本語 UD の仕様は統語面を重視した仕様になっていると評価できる。Croft[13] は information packaging を依存関係、意味内容を語彙のタグセットと組み合わせるべきであると主張しており、依存関係を重視すれば日本語では conj を使う機会は減ると予測されるが、3.2で示した通り現在の仕様では直接的に語彙のタグセットで並列であることを示す手段はない。逆に機能的側面を重視するならば、英語の 'and' が pseudo-coordination となる例もあるため、典型的に意味的な並列を担う語彙項目に関して、現在 $a d v c l, S C O N J$ となっている一部の並列表現形式を conj, CCONJへ変更するのも一案である。 いずれにしても、UDにおいては日本語の述語並列について並列と見なすのであれ従属と見なすのであれ、何らかの方針に基づきタグ付けをすることになる。認定基準は典型的な用法、統語テスト、機能面で見た並列用法と従属用法の比率など様々に考えられるが、UD 全体との整合性やコンバージョンの容易さなどを考慮して決定する必要がある。 謝辞本研究の一部は JSPS 科研費 $19 K 13180$ の助成および国立国語研究所コーパス開発センター共同研究プロジェクトの支援を受けたものです。 ## 参考文献 [1]Anders Björkelund, Agnieszka Falenska, Xiang Yu, and Jonas Kuhn. Ims at the conll 2017 ud shared task: Crfs and perceptrons meet neural networks. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 40-51, 2017. [2]浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal dependencies 日本語コーパス.自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [3]Universal Dependencies contributors. Universal dependencies, 2020-10 閲覧. https://universaldependencies. org/. [4]浅原正幸, 松本裕治. 『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテーション.自然言語処理, Vol. 25, No. 4, pp. 331-356, 2018. [5]Bruno Guillaume. Grew- graph rewriting for nlp, 2020-12 閲覧. https://grew.fr/. [6]中俣尚己. 日本語並列表現の体系. ひつじ書房, 東京, 2015. [7]益岡隆志, 田窪行則. 基礎日本語文法一改訂版一. くろしお出版, 東京, 1992. [8]Martin Haspelmath. The converb as a cross-linguistically valid category. In Martin Haspelmath and Ekkehard König, editors, Converbs in Cross-linguistic Perspective, pp. 1-55. Mouton de Gruyter, Berlin, 011995. [9]清瀬義三郎則府. 連結子音と連結母音と-日本語動詞無活用論. 国語学, Vol. 86, pp. 42-56, 1971. [10]南不二男. 現代日本語の構造. 大修館書店, 東京, 1974. [11]Peter W. Culicover and Ray Jackendoff. Semantic subordination despite syntactic coordination. Linguistic Inquiry, Vol. 28, No. 2, pp. 195-217, 1997. [12]Etsuyo Yuasa and Jerry M. Sadock. Pseudo-subordination: A mismatch between syntax and semantics. Journal of Linguistics, Vol. 38, No. 1, pp. 87-111, 2002. [13]W. Croft, D. Nordquist, Katherine Looney, and Michael Regan. Linguistic typology meets universal dependencies. In TLT 2017, 2017. ## A 付録 表 2 PUD-en で収集された CCONJ の形式と頻度
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-9.pdf
# 集合知を用いた大規模意味的フレーム知識の構築 小原京子 慶大/理研 AIP ohara@hc.st.keio.ac.jp 河原大輔 早大/理研 AIP dkw@waseda.jp ## 1 はじめに 本研究の目的は、高度な言語理解の実現に向けて、自然言語処理の手法で構築された「京都大学格フレ一ム」(KCF)の格フレームと人手で構築中の「日本語フレームネット」(JFN)の意味フレームとを集合知を用いて対応付け、フレーム知識を統合することである. 具体的な目標は 2 つる. 究極的目標は、 $\mathrm{KCF}$ 格フレームを $\mathrm{JFN}$ 意味フレームに対応付けし、 $\mathrm{KCF}$ 格フレームを構成するすべての文がその $\mathrm{JFN}$ 意味フレームにあてはまるとみなすことによって、 $\mathrm{JFN}$ 意味フレームアノテーション付きコーパスを大幅に増強することである。もう1つはクラウドソー シングの結果から JFN 上の既存のフレーム定義が不完全であることがわかる可能性があるため、これらについて人手でチェックすることによりJFNを改良することである.本論文は、 1 つ目の究極的目標に向けた中間報告であるとともに、2つ目の目標の指針を決定するためのケーススタディである. 図 $1 \mathrm{KCF}$ 格フレームと JFN 意味フレーム 本研究では、ある述語に対するそれぞれの KCF 格フレームについて、その述語に対して定義された JFN 意味フレームのいずれかに対応付ける (図 1). この対応付けを大規模かつ高速に行うためにクラウ \author{ 笹野遼平 \\ 名大/理研 AIP \\ sasano@i.nagoya-u.ac.jp satoshi.sekine@riken.jp } ドソーシングを用いる.具体的には、一つの KCF 格フレームを代表する例文を提示文、JFN 意味フレー 么の例文 2 文を選択肢 1,2 として、提示文と用法が似ている選択肢を選ぶタスクを実行する(図 2)。選択肢 1,2 に加えて、「いずれにも似ていない、もしくは判断できない」という選択肢(以下では “OTHER”と呼ぶ)を別途設け、JFNのいずれの例文にも似ていない場合、もしくは提示文からは判断が難しい場合に選択してもらう。この選択肢が多くのクラウドワーカーに選ばれた場合には、提示文、選択肢、あるいはそれ以外の何かを見直した方が良い可能性がある. ## 提示文中の [...】の語の意味を考え、意味がもっとも似ている選択肢を選んでくだ さい。意味が似ている選択肢がない場合、もしくは判断できない場合は「※どれに も似ていない、もしくは判断できない」を選んでください。 ファイルサイズが指定サイズ以上のファ 我が国のそれそれれの地域・企業において実際に行われている取組みの事例を 【収集】し、分析することとした。 図 2 クラウドソーシングタスク例 $\mathrm{KCF}$ とFN の両方に存在する述語は図 1 に示した通り 926 述語あり、そのうち JFNにアノテーション例文があるのは 713 述語である.これらのうち 185 述語については既にクラウドソーシングを行い、言語分析者が人手でその結果の評価を行った. その内訳は、表 1 の通りである. 本論文では、表 1 の 85 述語と同様に JFN 上で現在 1 つの意味フレームに割り当てられており、複数のアノテーション例文が存在する 81 述語のクラウドソーシング結果について報告と考察を行う.考察においては、JFNで 2 つの意味フレームに割り当て られた 37 述語のクラウドソーシング結果に関する先行研究[1]、[2]の知見と比較する. 表 1 実施済みクラウドソーシング対象 & \\ 分析の結果、JFN に一義語として登録されている述語についても、正解率の高低やクラウドワーカー らの回答には多義語の場合と同様の傾向が見られることがわかった. 加えて、クラウドソーシング結果の正解率の向上と JFN 改良のための指標が得られた.以下では、まず第 2 節で先行研究の知見を概観した後に、第 3 節で今回の実験について論じる. 第 4 節では今回の実験結果を先行研究のそれと比較する.最後の第 5 節で今後の展望について述べる. ## 2 先行研究 先行研究[1]、[2]では、JFN において 2 つの意味フレームに割り当てられており(つまり2つの意味を持つ多義語)、それぞれの $\mathrm{JFN}$ 意味フレームで例文が 1 文以上存在する 37 述語について実験を行つた. その結果、述語や格フレームによって最多票を得た回答の正解率にばらつきが見られるが、 2 つの語義が明らかに隔たっていて JFN 上の意味フレーム定義に不備がない述語は正解率が高いこと、最多票の回答が OTHER で得票数が多い格フレーム例文には複単語表現 (multi-word expression、以下 MWE) が出現しているものが多いことが明らかとなった. 10 人のクラウドワーカーらの回答について、最多票を獲得した JFN 意味フレームとその例文が正解だったかどうかを言語分析者が人手で評価・分析した.各述語の 2 つの語義間の類似度と、それらの意味が現行のJFNに正確に意味フレームとして登録されているかどうかにより、37 述語を 3 つに分類した: カテゴリーI:2つの語義が明らかに隔たっている (9 述語、例:「送る」)。 カテゴリーII:2つの語義が似通っている(11 述語、  例:「書く」). カテゴリーIII: JFN 上に定義済みの JFN 意味フレー ムが、当該述語の $\mathrm{KCF}$ 格フレームに見られる全ての語義を正確に表現していない(17 述語).以下の 2 種類のケースがある:1) JFN 上で誤った意味フレー ムが当該述語に割り当てられていた(例:「適切だ」); 2) $\mathrm{KCF}$ 格フレームから当該述語が 3 つ以上の語義を持つことが判明したが、JFN 上の当該述語に対する意味フレーム割り当てが不完全であった (例:「与える」). 述語カテゴリー別の、述語の平均正解率は以下の通りであった. $ \begin{aligned} & \text { カテゴリーI: } 83.9 \% \\ & \text { カテゴリーII: } 55.0 \% \\ & \text { カテゴリーIII: } 39.9 \% \end{aligned} $ この結果から、クラウドワーカーらはカテゴリーIの述語、つまり 2 つの語義が明らかに隔たっている述語に対しては、概教正しく $\mathrm{KCF}$ 格フレームを $\mathrm{JFN}$ 意味フレームに対応づけられたと言える。 また、最多票が OTHER でその得票数が多いKCF 格フレーム例文には複単語表現が関与するものが多かった. (1)から(3)はその例である (文末のカッコ内の数字は最多票を得た OTHER の得票数). (1)自分が青春時代を【送った】(10) (2) その日に私が話題に【上った】そうだ (3)ここは私が話を【通そう】(8) KCF の述語には MWE は含まれず、JFNでも今のところ MWE の見出し語は少ないので、KCF 格フレー ムと JFN 意味フレームの対応付けの際には MWE の扱いに留意する必要がある. 本研究の究極的目標である KCF 上のそれぞれの格フレームに対して JFN 意味フレームを効率的に対応づけるためにも、当面の目標である JFN コンテンツの改良のためにも、クラウドソーシング結果を言語分析者が人手で詳細に評価する前にあらかじめ正解率の高い述語や留意すべき格フレームを推定できることが望ましい。従って、この先行研究で得られた、JFN 上の意味フレーム定義に不備がない述語の正解率が高いという傾向と、OTHER が最多票でなおかつ得票数が多い場合に MWE を含むケースが多 いという傾向が、一義語についても見られるかどうかを調查することにした。 ## 3 実験 ## 3.1 実験設定 今回の実験では、JFN 上で 1 つの JFN 意味フレー ムに登録されている(すなわち一義語とされている) 81 述語、合計 $1319 \mathrm{KCF}$ 格フレーム(1 述語あたり平均 16.7 格フレーム) を対象とした. ## 3.2 結果 先行研究と同様に、最多票を獲得した選択肢が正解かどうかを評価した. OTHER が最多票を獲得した際にそれが正解かどうかを得票数別に調べた。その結果を表 2 の OTHER 得票数 6-10 に示す. ## 表 2 格フレームごとの得票数別最多票 OTHER の正解率 } & & & \\ 9 & 4 & 4 & 100 \\ 8 & 8 & 7 & 87.5 \\ 7 & 19 & 9 & 47.4 \\ 6 & 39 & 9 & 23.1 \\ 5 & 77 & 16 & 20.8 \\ 4 & 128 & 20 & 15.6 \\ 3 & 218 & 41 & 18.8 \\ 2 & 309 & 52 & 16.8 \\ 1 & 329 & 41 & 12.5 \\ 0 & 184 & 23 & 12.5 \\ まず、OTHER が最多票を取得し、なおかつ正解だった格フレームについて分析した. OTHER が正解となった理由としては次の 4 つがある:1) 述語が MWE の一部となっており MWE 全体で別のフレー ムを喚起する、2) JFN 上には 1 つの意味フレームのみ割り当てられていたが、実際には他にも語義があり KCF 格フレーム例文の用法はその別の語義に関するものであった、3) JFN に割り当てられた意味フ レームかアノテーション例文に誤りがあった、4)提示文である $\mathrm{KCF}$ 格フレーム例文の意味がわかりら゙ らかった、である(表 3).それぞれの例を(4)から (7) に示す (文末のカッコ内の数字は最多票だった OTHER の得票数). (4) MWE 多くの人が会場で門前払いを【食った】 (5) 多義 有効の方がメモリを【食い】ません(10) [Ingestion フレームに加え、 Expend_resourceフレームへ割り当て必要] (6) JFNの意味フレーム割り当て不正確 いつでも気持ちは「日に【新た】」です (6) [Familiarityフレームではなく正しくはAge フレーム] (7) $\mathrm{KCF}$ 例文意味不明 今日も一日が【大幅に】しないとね 表 3 OTHER が正解だった理由の内訳 } & \multirow{2}{*}{} & \multicolumn{4}{|c|}{} \\ 表 3 から分かる通り、MWE の関わる KCF 格フレ一ム例文は、最多票 OTHER が正解でなおかつ得票 数が 7 から 10 までの格フレームに限られた. これは先行研究で見られた傾向と同じである. これに対して、JFN 上の意味フレームかアノテーション例文の誤りに関わる KCF 格フレームは、OTHER 得票数が少ない格フレームに多く見られた。 次に、OTHER が最多票を獲得した (つまり得票数が 6 から 10 までだった)が、正解ではなかった 41 格フレームについて調べた (表 2 参照).これらの格フレームにおいて OTHER が不正解となった理由として考えられる顕著なものに KCF 例文(提示文) と JFN 例文 (選択肢) の文構造の違いがある (14 述語、計 25 格フレーム),以下の例(8)-(10)に示すように、同一語義・用法であるにもかかわらず両者の文構造が違うためにクラウドワーカーらが同義と認識できず、OTHERを選択したと考えられる. (8) 文末 $v s$. 名詞修飾男のほうが顔を【重視】するのだろうな(KCF);【重視】すべき機能に応じた森林整備の推進 (JFN) (9) 文末 $v s$. て接続 アップグレードビジネスクラスを【比較】しよら! (KCF) ; 商業借款と【比較】して一定の水準以上に優遇された貸付条件であることが必要とされている (JFN) (10)否定形 vs.肯定形、能動態 vs.受動態 パソコンがモデムを【認識】しなくなってしまった(KCF); 大量破壊兵器やその運搬手段である弾道ミサイルの移転・拡散は、冷戦後の大きな脅威の一つとして【認識】され続けてきた(JFN) 以上、JFN に一義語として登録されている述語についても、最多票の回答が OTHER で得票数が多い格フレームに MWE が関与しているケースが多いことがわかった。さらに、MWE 以外にもその述語の他の語義が見つかるケースがあることが判明した。 また、クラウドワーカーらは提示文と選択肢の文構造を比較して回答しているらしいことが示唆された. ## 4 考察 今回の実験対象は $\mathrm{JFN}$ 上で 1 つの JFN フレームに登録されている述語であったが、クラウドソーシング結果を評価・分析した結果、 81 述語のうちの 9 述語が多義語であることが判明した. そこで先行研究に倣い、述語の意味的特徴と、それらが現行の JFN に正確に反映されているかどうかに基づき、これら 9 つの多義語をカテゴリーIから III に分類した. 述語カテゴリー別に述語の平均正解率を算出したとこ万、以下の通りとなった。 カテゴリーI:2つの語義が明らかに隔たつている (2 述語:「食う」、「浮かぶ」):100\% カテゴリーII: 2 つの語義が似通っている(2 述語: 「教える」、「泳ぐ」): 50.95\% カテゴリーIII: JFN 上に定義済みの JFN 意味フレー ムが、当該述語の KCF 格フレームに見られる全ての語義を正確に表現していない(5 述語): $52.7 \%$ 1) JFN に誤り(2 述語:「記録」、「重ねる」): $28.1 \%$ 2) 3 つ以上の語義 (3 述語:「吸う」、「決定」、「飲む」):69.1\% 今回の実験においても 2 つの語義が明らかに隔たつており JFN のコンテンツに不備のない述語(カテゴリーI 述語)は正解率が高いことが示された. ちなみに、一義語の 72 述語のうち $\mathrm{JFN}$ 上の意味フレーム割り当てやアノテーション例文に不備のない 59 述語の正解率は $63.2 \%$ 以上 $100 \%$ 以下に分布しており、不備のある残りの一義語(13 述語)の正解率はそれより低い $0 \%$ 以上 $56.3 \%$ 以下に分布していた. ## 5 まとめと今後の展望 $\mathrm{JFN}$ 上で 1 つの JFN 意味フレームに登録されている述語を対象に、 $\mathrm{KCF}$ 格フレーム例文に JFN 意味フレーム例文を対応づけるクラウドソーシングを行い、 その結果を正解率の向上と JFN 改良の観点から考察した. 得られた知見は以下の通りである. 1) OTHER が正解となる理由は 4 つある. 2) OTHER が最多票で得票数が多い場合は正解率が高く、MWE が関与している可能性が高い.3)一義語・多義語ともに $\mathrm{JFN}$ 上で不備のない述語の正解率が高い. 4) クラウドワーカーらは回答の際に KCF 格フレーム例文と JFN フレーム例文の構造を考慮していると推定できる. 今後 JFN に 1 例文のみ存在する一義語の実験の際にこれらの仮説をさらに検証していく. また、多義語と分析した 9 述語の述語カテゴリー への分類では語義間の意味の隔たりを考慮したが、 JFN 意味フレームの粒度と JFN 上のフレーム間関係に鑑み、多義語については集合知のみならず自動処理を用いて今後検討していきたい。 ## 参考文献 1. クラウドソーシングによる日本語 FrameNet と自動構築した格フレームとの対応付け. 河原大輔,小原京子, 関根聡, 乾健太郎. 言語処理学会第 24 回年次大会, 2018. 2. Linking Japanese FrameNet with Kyoto University Case Frames Using Crowdsourcing. Ohara, Kyoko Hirose, Daisuke Kawahara, Satoshi Sekine, and Kentaro Inui. Proceedings of LREC2018 International FrameNet Workshop 2018: Multilingual Framenets and Constructicons, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-10.pdf
# Cloze Test for Verbs in Academic Writing by Masked Language Models Chooi Ling Goh The University of Kitakyushu goh@kitakyu-u.ac.jp ## 1 Introduction Recently, many advanced language models have been trained and proven to improve many natural language processing (NLP) tasks, such as text generation, summarization, machine translation, question answering and etc. General pre-trained language models such as BERT [1] and GPT-2 [2] have been used in many NLP tasks, and achieve excellent performance. This paper focuses on text infilling on academic writing, where pre-trained language models are used to fill in some blanks, especially verbs, in the text. We use BERT, a masked language model inspired by the Cloze task, and investigate how well can it fill in the blanks in the text in academic writing. Experiments are carried out on some English abstracts taken from the journal papers from NLP field. We compare two journals, where one of them is an international journal and mostly written by native English speakers and the other one is a local journal mostly written by non-native English speakers. In the experiments, some verbs in the texts are masked out, and predicted by the pre-trained language models. We count how many words can be predicted same as the original words, and see if the language model can derive better words than the original ones. We also compare the fluency of texts before and after the replacement of the predicted words. ## 2 Text Infilling The original masked language model (MLM) BERT is designed to predict randomly masked tokens like in a Cloze task, and whether the next sentence is a succeeding sentence [1]. BERT is based on the multilayer bidirectional Transformer [3], which enables representation of left and right contexts for predicting the masked token. BERT is trained by masking $15 \%$ of the words. It is trained on general domain corpora, i.e. Book Corpus and English Wikipedia texts, with 3.3B tokens. While BERT can only predict single masked token, further research has expanded the model to predict multiple masked tokens, such as in [4]. However, in this research, the length of spans must be decided in advance. Later on, variable-length spans are proposed $[5,6,7]$. This research is referred to as text infilling by language modeling. These models are able to fill in the blanks with multiple words, and have no limitation of the length of span. [5] propose to infill different granularities of text: words, $\mathrm{n}$ grams, sentences, paragraphs, and documents. However, these text infilling methods can generate fluent text, but has no control on the meaning of generated text. In this paper, we want to know if the filling of verbs in the academic articles would be possible using the MLMs and investigate how well can they predict compared to the original texts. Furthermore, we also compare the results with a word embedding model, Word2vec [8], trained on domain specific scientific articles. ## 3 Experiments ## 3.1 Pre-trained Models We compare four language models in our experiments: Word2vec, BERT, DistilBERT and SciBERT. Word2vec [8] is a word embedding model which is able to compare the word vectors in order to calculate their similarity using cosine measure. It has been proven that using a Word2vec embedding model trained on specific domain, one can find the most similar words which can be used to replace the words in academic writing. A Word2 $\mathrm{vec}^{1)}$ model trained on the ACL Anthology Reference Corpus ${ }^{2}$ (ACL-ARC) can propose semantically similar candidates using cosine similarity [9]. There are 66,453 word vectors in this model. However, this model can only compare the  word vectors without any context information. Therefore, sometimes the similar word may be the one with opposite meaning. Beside the original BERT, we also compare two MLMs which are based on BERT. DistilBERT is a distilled version of BERT, which is smaller, faster and lighter [10] while retaining $97 \%$ of its performance in language understanding. SciBERT is also based on BERT but is trained on scientific texts from Semantic Scholar, with 3.17B tokens [11]. Both BERT and SciBERT has an overlapping of $42 \%$ of vocabularies, which shows that general domain and scientific domain have substantial difference on use of frequent words. Below shows precisely the models we used for comparison. ## - BERT bert-base-uncased - DistilBERT distilbert-base-uncased ## - SciBERT allenai/scibert_scivocab_uncased We employ the implementation of Hugging Face [12] for using these language models. ## 3.2 Datasets We collected 631 English abstracts from the Journal of Natural Language Processing (JNLP) published by The Association for Natural Language Processing (ANLP), $\mathrm{Japan}^{3)}$. These articles are mostly written by non-native speakers of English ${ }^{4)}$. These abstracts contributes to 4,564 sentences, and 108,322 tokens. We mask out all the verbs $^{5}$, and try to fill in these verbs with the MLMs. There are 11,224 masked words, which covers $10.36 \%$ of the tokens. For comparison, we collected 662 abstract from the Computational Linguistics Journal (CLJ) published by The Association for Computational Linguistics (ACL), $\mathrm{USA}^{6}$. On the contrary, these articles are mostly written by native English speakers. There are 4,409 sentences, and 116,644 tokens, with 11,995 masked verbs, which is $10.28 \%$ of the tokens. Table 1 shows the summary of the datasets. 3) https://www.anlp.jp/guide/index.html 4) The authors may have asked for proofreading service to correct their English. 5) Except auxiliary verbs. 6) https://www.mitpressjournals.org/loi/coli Table 1 Statistics on the datasets for JNLP and CLJ. ## 3.3 Results This section explains the prediction results. First, we count how many words suggested by the MLM matched with the original words. The word may be found in the first position, top 5 suggestions or top 10 suggestions. Table 2 shows the accuracy rates. Apparently, SciBERT's suggestions are far better than the other two models. This proves that domain specific MLM is useful in suggesting correct vocabularies for that domain. When restricted to top 10 suggestions, SciBERT achieves an accuracy of about three-quarter of the verbs. Table 2 Accuracy from each model for JNLP and CLJ. Second, we evaluate the performance of the models using perplexity (PPL). Lower value of perplexity reflects better fluency of texts. The perplexity (PPL) is calculated based on the GPT-2 language model $[2]^{7}$. This model has been successful to improve many NLP tasks with zero-shot task transfer. We believe that this model can provide fair results for evaluating texts in any domain. Table 3 shows the perplexity obtained. The Word2vec model fills in the masked words with the most similar words using cosine similarity. In other words, none of the words are the same as the original words. Therefore, the perplexity is higher, implying lower fluency, as Word2vec does not take contexts into account. Many word proposals by Word2vec do not conform to neither functional nor morphological 7) https://huggingface.co/transformers/perplexity.html similarity. Although JNLP's articles are mostly written by non-native English speakers, the fluency is slightly better than CLJ based on perplexity. However, since we do not assess on the proficiency level, it is hard to say that JNLP is higher level than CLJ. For MLMs, only the first suggestion is used for evaluation. From Table 2, we noticed that only $22 \%-39 \%$ of the first suggestions are the same as the original words. However, these do not deteriorate much on the perplexity, or rather better than the original text, especially for SciBERT. This implies that in-domain MLM could offer good suggestions for filing the verbs in academic text. Table 3 Perplexity for original tokenized text and output from ## 4 Discussion Table 4 shows some examples of the prediction outputs. The words in bold face with square brackets are masked words used for prediction. The outputs of each model are in the order as below. $\left.\{\begin{array}{l}\text { [Masked] } \\ \text { Word2vec } \\ \text { DistilBERT } \\ \text { BERT } \\ \text { SciBERT }\end{array}\right.\}$ Some of the words although are not the same as the original words, they make sense to be replaced. For example, it is certainly reasonable to use "demonstrate" to replace "show" in sentence $\mathrm{S} 1$, and "combining" to replace "integrating" in the sentence S3. Since Word2vec does not take contexts into account, it may introduce some grammatically or functionality erroneous words. For example, in $\mathrm{S} 2$, "correlates" is replaced by "correlate", and in $\mathrm{S} 4$, "managing" has become "multimedia". On the other hand, the problem with MLM is that although they can predict suitable words based on the contexts, which make the sentence become fluent, sometimes they do not convey the same meaning as the original word. For example, it is fine to replace "understand" with "comprehend" or "investigate" in sentence $\mathrm{S} 4$, but certainly "determine" is running out from the meaning of the sentence. However, in general, both Word2vec and MLM are useful in this cloze test This experiment results are promising to motivate us in the design of a writing system: we can either use Word2vec to only look for similar words, or masked language model to fill in the blanks. For example, in the input sentence below, ## We [*] how to integrate this [method] into a standard phrase-based SMT pipeline . where [*] is used to look for suitable words, and [method] is used to look for alternative words that has the similar meaning as "method". ## 5 Conclusion The purpose of this research was to investigate the use of masked language models in aiding academic writing. By providing the MLMs the left-right contexts of a sentence, they are able to predict some useful words to fill in the blanks. Our experiments were carried out on the abstracts taken from the NLP journal articles written by both native and non-native English speakers. The results were promising and encouraging us to design a writing system that includes both word embedding and language model features. Using models trained on specific domain, such as SciBERT and Word2vec trained on ACL-ARC, we can control the selections of vocabularies used in scientific articles, and improve the proficiency of academic writing style. ## Acknowledgments This work was supported by JSPS KAKENHI Grant Number JP18K11446 . Table 4 Some output examples from each model for JNLP and CLJ. Words in bold face with square brackets are masked words used for predictions. The outputs of each model are in the order of \{[Masked], Word2vec, DistilBERT, BERT, SciBERT\}. ## References [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [2] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. Technical report, OpenAI, 2019 [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems 30, pp. 5998-6008. Curran Associates, Inc., 2017. [4] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 64-77, 2020. [5] Chris Donahue, Mina Lee, and Percy Liang. Enabling language models to fill in the blanks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2492-2501, Online, July 2020. Association for Computational Linguistics. [6] Wanrong Zhu, Zhiting Hu, and Eric P. Xing. Text infilling. CoRR, Vol. abs/1901.00158, , 2019. [7] Tianxiao Shen, Victor Quach, Regina Barzilay, and Tommi Jaakkola. Blank language models. arXiv preprint arXiv:2002.03079, 2020. [8] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In 1st International Conference on Learning Representations, ICLR 2013, Workshop Track Proceedings, 2013. [9] Chooi Ling Goh and Yves Lepage. An assessment of substitute words in the context of academic writing proposed by pre-trained and specific word embedding models. In LeMinh Nguyen, Xuan-Hieu Phan, Kôiti Hasida, and Satoshi Tojo, editors, Computational Linguistics. PACLING 2019. Communications in Computer and Information Science, vol 1215, pp. 414-427, Singapore, 2020. Springer Singapore. [10] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. In Proceedings of the 5th Workshop on Energy Efficient Machine Learning and Cognitive Computing, 2019. [11] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [12] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chau- mond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Huggingface's transformers: State-of-the-art natural language processing. ArXiv, Vol. abs/1910.03771, , 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-11.pdf
# 静的な単語埋め込みによる カタカナ語を対象とした BERT の語彙拡張 平子潤 名古屋大学情報学部 hirako.jun@g.mbox.nagoya-u.ac.jp ## 1 はじめに BERT[1] ではサブワードを利用することで語彙に含まれない未知語を含む文も適切に処理することが可能となっている. しかし,サブワードが意味を持つ適切な単位となっていない場合,その有効性は限定的であると考えられる。こうしたケースはカタカナ語の未知語において特に多く出現すると言える。 たとえば本研究で使用した BERT (3.2 節参照)では,「クロワッサン」は「クロ」「\#\#」「\#\#ッサン」の 3 つのサブワードに分割されるが,これらは意味のある単位とはなっていない。 このような未知語を含む文を適切に扱えるようにする 1つの方法は語彙サイズを大きく設定し, これらの語を語彙に含めてしまうことである. しかし,BERT の事前学習時の語彙サイズを大きくした場合,計算コストが増大してしまう,そこで,本研究では比較的低コストに学習できる静的な単語埋め込みを用いた BERT の語彙拡張手法を提案する. ## 2 単語埋め込みのマッピング BERT は,図 1 に示すように語彙に含まれる各単語に対し文脈に依存しない単語埋め込み (BERT Token Embeddings) を持っている.この埋め込み層を拡張することで BERT の語彙の拡張が可能となる. 本研究では, より大きな語彙サイズで学習した静的な単語埋め込みを, BERT Token Embeddings と共通する語を手掛かりにマッピングすることで,事前学習済みの BERT の語彙を拡張する。 ## 2.1 既存のマッピング手法 異なる単語埋め込み空間のマッピングは, 2 言語間の単語埋め込みの対応付けを目的として行われる場合が多い [2]. 教師あり手法の場合, 2 言語辞書を用いて対応付けるべき単語ペアを獲得し,各単語ぺアの単語ベクトルが近くなるようにソース単語埋め \author{ 笹野遼平武田浩一 \\ 名古屋大学大学院情報学研究科 \\ \{sasano, takedasu\}@i.nagoya-u.ac.jp } 図 1 BERT の構造. BERT Layers は BERT の Input Embeddings 以外の層を表している. 込みをターゲット単語空間にマッピングする。このような手法の先駆けとして, Mikolov ら [3] は,マップ後のソース単語ベクトルとターゲット単語ベクトルの平均二乗誤差が小さくなるような変換行列 $W$ を SGDで求める手法を提案した.また,Xing ら [4] は,ソースとターゲットの全単語ベクトルのノルムを正規化し,変換を直交変換に限定する手法を提案した. さらに, Artetxe ら [5] は, ノルムの正規化や直交変換に加えて,分散の正規化,再重み付け,次元削減を複数ステップで行う枠組みを提案した. ## 2.2 静的な単語埋め込みからのマッピング 本研究で目的とする, 静的な単語埋め込みから BERT Token Embeddings へのマッピングが,既存の言語間の単語埋め込みのマッピングと大きく異なっている点として,言語間マッピングでは基本的に各言語における単語埋め込み生成アルゴリズムは同一のものが使用されるのに対し,本研究におけるマッピングではソース単語埋め込みとターゲット単語埋め込みの生成アルゴリズムが異なっていることが挙げられる。したがって,マッピング対象とする $2 \supset$ の埋め込み空間の性質が大きく異なる可能性が考えられることから,本研究で使用した BERT Token Embeddings と, fastText で学習した静的な単語埋め込み (3.2 節参照) の両方に含まれる単語のノルムの関係を調査した. 結果を図 2 , 図 3 に示す. BERT 図 2 BERT Token Embeddings と fastText Skip-gram で共通する単語のノルムの関係. 相関係数は 0.355 . 図 3 BERT Token Embeddings と fastText CBOW で共通する単語のノルムの関係. 相関係数は-0.142. Token Embeddings と fastText で学習した静的な単語埋め込みの間で,ノルムに強い相関は確認できず, また,平均値も大きく異なっていることが分かる. ${ }^{1}$ これらの結果から,単純な変換行列に基づくマッピングを行った場合,ノルムの性質の違いを要因とし精度低下が起こる可能性が考えられる。そこで,単純な変換行列に基づくマッピング (補正なし) に加え,ノルムの性質の違いを考慮した3つのマッピング手法を含めた下記の 4 つのマッピング手法を考える。これらの手法において直交変換は,変換後のソース単語埋め込みとターゲット単語埋め込みの平均二乗誤差が最小となるように行う. 1. 補正なし: 静的な単語埋め込み $M$ を直交変換 2. 平均補正: 静的な単語埋め込み $M$ の平均ノルムが BERT Token Embeddings の平均ノルムと一致するよう $M$ を定数倍してから直交変換 3. 正規化: 静的な単語埋め込み $M$ と BERT Token Embeddings の全ベクトルを正規化してから直交変換 4. 正規化+補正: 静的な単語埋め込み $M$ と BERT Token Embeddings の全ベクトルを正規化してから直交変換した後,BERT Token Embeddings の平均ノルムで変換後の $M$ を定数倍  本研究では,サブワードが適切に機能しないケー スが多いと考えられるカタカナ語を対象に,これら 4 つのマッピング手法を用い fastText で学習した静的な単語埋め込みを BERT Token Embeddings にマッピングすることで BERT の語彙拡張を行う。 ## 3 実験 本研究では語彙拡張の有効性をマスク単語予測実験を通して検証する,具体的には,語彙拡張が有効であるならば,拡張した語を含む文において拡張語と依存関係の強い周辺語のマスク単語予測の精度が,語彙拡張前の BERTを使った場合,すなわち拡張語をサブワードの系列として扱った場合と比べ向上するとの仮説に基づき,マスク単語予測データセットを作成し, それらのタスクの精度を通して語彙拡張の有効性を検証する。 ## 3.1 マスク単語予測データセット 語彙拡張の有効性検証のため,上位語予測,兄弟語予測, 述語予測, 被連体語予測の 4 タイプのマスク単語予測データセットを作成した. 以下の文 (1) (4) はそれぞれのタイプの例となっている. (1) <カボチャ>は [野菜] の一種です。 (2) 「<スプーン>」と「[フォーク]」。 (3) くフローラル>の [香り]が気に入った。 (4) 久しぶりに<クロワッサン>を [食べる]。 これらの例において, '<>' で囲った語が拡張語, '[]' で囲った語がマスク予測対象語となっており,いずれの場合もマスク予測対象語は拡張前の BERT の語彙に含まれている語である. 各タイプのデータセットの作成方法と評価指標を以下にまとめる. 上位語予測拡張語の上位語が予測対象語となるようにデータセットを作成した,入力文は『<拡張語>は [MASK] の一種です。』とし,対象とする拡張語は,日本語 WordNet[6] に含まれ,拡張語を含む synset の上位 synset に BERT の語彙に含まれる語が存在した語とした. 条件を満たした拡張語は 2730 個であった. 正解となる上位語は複数存在する可能性があることから評価指標には Mean Average Precision (MAP) を用いた。 兄弟語予測拡張語の兄弟語が予測対象語となるようにデータセットを作成した.入力文は『く<拡張語>」と「[MASK] ]。』とし, 対象とする拡張語は,日本語 WordNetに含まれ,拡張語を含む synset の上位 synset の下位 synset から,拡張語が含まれる 表 1 マスク単語予測実験の結果 (太字は拡張なしょり高いスコアであることを表す) } & \multirow{2}{*}{ 拡張なし } & \multicolumn{4}{|c|}{ 拡張あり (Skip-gram) } & \multicolumn{4}{|c|}{ 拡張あり (CBOW) } \\ synset を除いた synset (兄弟 synset) に BERT の語彙に含まれる語が存在した語とした. 条件を満たした拡張語は 3049 個であった. 上位語予測と同様に評価指標には Mean Average Precision (MAP) を用いた。 被連体語予測拡張語が連体修飾する語が予測対象語となるようにデータセットを作成した. 具体的には,Common Crawl に含まれるテキスト2を, $\mathrm{MeCab}^{3}$ を用いて形態素解析し, そこから『<拡張語 >のく名詞〉く格助詞〉』というパターンを含む文章を抽出し,BERT の語彙に含まれるく名詞〉を [MASK] に置き換えた 1 万文を使用した.正解単語は置き換え前の<名詞>とし, 正解が 1 つであることから, 評価指標には平均逆順位 (MRR)を用いた。 述語予測拡張語を項とする述語が予測対象語となるようにデータセットを作成した,具体的には, Common Crawl から『<拡張語〉<格助詞〉<動詞〉。』というパターンを含む文を抽出し,BERT の語彙に含まれているく動詞〉を [MASK] に置き換えた 1 万文を使用した.ただし,情報量の少ない「する」や「なる」などの述語を除くため, 平仮名のみで構成されるく動詞〉を含む文は対象から外した,被連体語予測と同様に評価指標には平均逆順位 (MRR)を用いた。 ## 3.2 実験設定 静的な単語埋め込みの作成には, fastText ${ }^{4}$ を利用し, Skip-gram と CBOW[7] の 2 つのモデルで学習を行った.コーパスは Wikipedia 日本語版を利用し, $\mathrm{MeCab}^{3}$ により単語分割を行った. 次元数は BERT Token Embeddings と同じ 768 次元とした. また, 事前学習済みの BERT として, 東北大学で公開されているモデル゙を利用した。 実験では,語彙拡張を行わないBERTをべースラインとし, 4 つのマッピング手法 (補正なし, 平均補正,正規化,正規化+補正) で語彙拡張した BERTを比較した. マッピングの学習には, BERT の語彙の ^{2} \mathrm{http} / / /$ statmt.org/ngrams/で公開されているデータを利用した. ${ }^{3}$ https://taku910.github.io/mecab/ (辞書: mecab-ipadic) ${ }^{4}$ https://github.com/facebookresearch/fastText }^{5}$ https://github.com/cl-tohoku/bert-japanese で公開されているモデルのうち, Wikipediaを MeCab (ipadic) と WordPiece で単語分割し, Whole Word Masking で学習したモデルを利用した. うちサブワードトークン(「\#\#」から始まる) と特殊トークン ([MASK] や [CLS] など) を除く,すべての単語を使用した. 拡張対象語彙は,静的な単語埋め込みの学習に使用した Wikipedia において,BERT の語彙に含まれない出現頻度上位 32000 個のカタカナ語とした. ただし,カタカナ語とは, MeCabによって 1 語としてまとめられた,カタカナのみで構成される単語である. 32000 語を語彙に追加することで, Wikipediaのカタカナ語の頻度ベースのカバー率は $71.3 \%$ から $90.7 \%$ となった. ## 3.3 実験結果 表 1 に実験結果を示す. 上位語予測と兄弟語予測では,提案手法のうちノルムの違いを考慮した 3 手法はベースライン (拡張なし)を上回った。一方,被連体語予測と述語予測では,いずれの手法を用いてもべースラインを上回ることができなかった.これについては次節で詳細な分析を行う。 ノルムの補正を行わない手法 (補正なし) と行う手法を比較すると,補正を行うことで精度が大幅に向上することが確認できる。一方,ノルムの補正を行う 3 手法間では大きな精度の違いは見られなかった. このことは, 図 2, 図3で示したように,BERT Token Embeddings と静的な単語埋め込みのノルムの性質が大きく異なるため,ノルムの平均の補正や正規化を行わなずに直交変換するだけでは適切にマッピングできないことを示している. マッピングに使用した静的な単語埋め込みの学習に利用した 2 モデルを比較すると,ノルムの補正を行わなかった場合 (補正なし) は, BERT Token Embeddings とのノルムの相関が比較的大きい Skip-gram を用いた場合の方が,CBOWを用いた場合より高い精度となった. 一方,ノルムの補正を行った場合は静的な単語埋め込みの違いによる精度差はほとんど確認できなかった。 ## 4 単語構成と出現頻度による分析 被連体語予測および述語予測において,提案手法がベースラインを上回ることができなかったのは,大きく2つの要因があると考えられる. 1つ目は,単語に構成性があることである.たとえば拡張したカタカナ語に含まれる「ビデオカメラ」は,「ビデオ」と「\#\#カラ」という 2 つのサブワードに分割されるが,これらはそれぞれ意味を持つ形態素となっている.このようにより細かい形態素に分解可能な語は,カタカナ語であっても意味のあるサブワードに分割することができるため,サブワードが有効に働くと考えられる. 2 つ目は, 出現頻度の高いカタカナ語の存在である. 高い頻度で出現するカタカナ語の場合,人間が見た場合に意味のあるサブワードに分割することができなかったとしても,それらのカタカナ語の意味を適切に処理できるようにサブワードの埋め込みの学習が行われている可能性がある。たとえば,拡張したカタカナ語に含まれる「ペンギン」は, Wikipedia において 1900 回以上という高い頻度で出現していることから,「ペンギン」を構成する「ぺン」および「\#\#ギンというサブワードは「ペンギン」に近い意味となるように学習が行われている可能性がある. これら 2 つの要因による影響を検証するため,拡張語を単語構成と出現頻度に基づき分類した 8 つのタイプごとに,被連体語予測と述語予測においてカタカナ語を追加する効果を調査した。具体的には,下記の基準によりカタカナ語を分類し, Common Crawl から各タイプに該当する文を 2500 文ずつ抽出し,正規化+補正手法により語彙を拡張する場合と, しない場合の精度を比較した。 単語構成による分類Unidic[8] が採用している,短い語の単位である短単位に基づきカタカナ語を形態素解析し ${ }^{6}$, Unidic に含まれる複数の語に分割されたものを複合語,それ以外の語を単純語に分類 出現頻度による分類 32000 語のカタカナ語を, Wikipedia における出現頻度により上位 $25 \%$, 上位 $25 \sim 50 \%$ ,上位 50 75\%,下位 $25 \%$ の 4 つに分類 実験結果を表 2 に示す。表 2 において太字はべー スラインより高いスコアであることを示す. 単純語かつ出現頻度が高くない単語に対しては, ほとんどの場合において,拡張ありのスコアが拡張なしのスコアを上回っており,語彙拡張が有効であることが確認できる。このことから,拡張するカタカナ語を単純語かつ高頻度でない単語に限定すれば,有用な単語拡張が可能であると考えられる。一方,合成  表 2 単語構成と出現頻度による分析 (MRR) } & \multirow{3}{*}{} & \multirow{3}{*}{ 出現頻度 } & \multirow{3}{*}{ 拡張なし } & \multicolumn{2}{|c|}{ 拡張あり } \\ 表 3 マスク単語予測において改善した例 語,および,単純語であっても頻度上位の語については拡張することでスコアが低下しており,被連体語予測および述語予測においてカタカナ語を対象とした語彙拡張によるスコアの向上が確認できなかった要因は,構成的な単語および高頻度語を対象とした語彙拡張が有効でなかったためであると言える。 表 3 に BERT の語彙を拡張したことによる改善例を示す. 語彙拡張を行うことで「クロワッサン」などの語の意味を適切に捉えることができるようになっていることが確認できる. ## 5 おわりに 本研究では, 静的な単語埋め込みから BERT Token Embeddingsヘマッピングを行うことで,BERT の語彙を拡張する手法を提案した. さらに,マスク単語予測データセットを用いて,カタカナ語を対象とした語彙拡張の有効性の検証を行い,単純語かつ出現頻度が高くないカタカナ語については語彙拡張が有効であることを示した.今後の課題としては,構成的でない漢字語などカタカナ語以外に対する提案手法の有効性の検証や,本研究で用いた直交変換に基づく手法より適したマッピング手法の解明などが考えられる。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL'19, pp. 4171-4186, 2019. [2] Sebastian Ruder, Ivan Vulić, and Anders Søgaard. A survey of cross-lingual word embedding models. Journal of Artificial Intelligence Research, Vol. 65, p. 569-631, 2019. [3] Tomás Mikolov, Quoc V. Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. arXiv:1309.4168, 2013. [4] Chao Xing, Dong Wang, Chao Liu, and Yiye Lin. Normalized word embedding and orthogonal transform for bilingual word translation. In Proc. of NAACL'15, pp. 1006-1011, 2015. [5] Mikel Artetxe, Gorka Labaka, and Eneko Agirre. Generalizing and improving bilingual word embedding mappings with a multi-step framework of linear transformations. In Proc. of AAAI'18, 2018. [6] Francis Bond, Hitoshi Isahara, Sanae Fujita, Kiyotaka Uchimoto, Takayuki Kuribayashi, and Kyoko Kanzaki. Enhancing the Japanese WordNet. In Proceedings of the 7th Workshop on Asian Language Resources (ALR7), pp. 1-8, 2009. [7] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Proc. of ICLR'13, Workshop Track Proceedings, 2013. [8] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源 :形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 2007.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-12.pdf
# Tokenizer の違いによる日本語 BERT モデルの性能評価 築地俊平 茨城大学工学部 情報工学科 17t4055g@vc.ibaraki.ac.jp } 新納浩幸 茨城大学大学院理工学研究科 情報科学領域 hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 1 はじめに 近年、事前学習済みモデル BERTを利用することで自然言語処理システムの性能が飛躍的に向上している。当初、実質英語だけが対象であった BERT だが、現在は日本語 BERT も数多く構築・公開され、一般に利用できるようになってきた。様々な日本語 BERT がある中で、どの BERT を利用すべきかは明らかではないが、選択の要因の一つは単語分割にあると考えられる。日本語 BERT は各々の Tokenizer を持ち、そこで利用される語彙リストが異なっている。そのためタスクの目的に合った Tokenizer を持つ BERTを利用した方がよいと考えられる。一方逆に利用する BERT を固定したい場合も多いと思われる。その場合、その BERT の持つ Tokenizer とは異なる Tokenizerを利用した際に、性能への影響がどの程度あるのかは興味深い。 ここでは東北大版の 'bert-base-japanese' と呼ばれる BERTを利用して、上記の調査を行った。'bertbase-japanese' の BERT は Tokenizer として MeCab が利用されている。入力された文は MeCabにより単語分割され、各単語が token id に変換される。この際、語彙リストに登録されていない単語については WordPiece が起動されて単語分割が行われる。つまり BERTへの入力として別の Tokenizer を利用して単語分割を行っても、token id 列に変換され、以後の処理は正常に行われる。 本論文では BERTを利用した文書分類のタスクを行う。利用する BERT は東北大版日本語 BERT である。文書から BERT の入力となる token id 列を得るのに、様々な Tokenizer を利用して、Tokenizer の違いによる性能の評価を行う。 ## 2 BERT と Tokenizer ## 2.1 BERT BERT は汎用的な言語モデルの事前学習を行う手法の一つである.大量のテキストデータを事前学習したモデルに少量の教師データを追加学習させることで、テキスト分類などの様々なタスクで先行研を超える分類性能を達成している.BERT は双方向 Transformerをべースとした汎用言語モデルであり、大規模コーパスで事前学習を行い、その後タスクに応じたファインチューニングを行うことで、様々なタスクに応用できるモデルである本実験では BERT の学習済みモデルには東北大学乾・鈴木研究所で作成された日本語 BERTを用いる [1]. ## 2.2 Tokenizer 日本語は英語と比べると単語間に明確な区切りが存在しない.そのため、日本語の解析をする場合には単語、文字など何らかの部分に分ける必要がある. さまざま分け方はあるが、分割された文字列のことをトークンという. Tokenizer は文書を単語分割をして、それに ID という数値に変換するモジュー ルである.単語を分割する方法としては ・N-graum を使って単語に分割 ・MeCab、Juman などを使って形態素解析して形態素に分割 ・事前に単語単位に分割して各単語の頻度を求め、高頻度で現れる単語を一つの単語とするサブワード がある.また、サブワードについてくわしくは後述する。 表 2 Tokenizerによる token id 列 ## 3 実験 本研究では 6 種類の Tokenizer と東北大学乾・鈴木研究室が公開している日本語 BERTを使う。その中で Toknizer の SentencePiece は日本語 Wikipedia デー 夕を使用する.使用する日本語 BERT の Tokenizer は MeCab+WordPiece である. ## 3.1 実験条件 本研究では訓練データ、テストデータを livedoornews から使用した. テストデータは 736 文、訓練データは 5887 文が用意し、それぞれ以下の 9 つのカテゴリに属するものを収集したデータセットである。 ・トピックニュース - SportsWatch ・IT ライフハック ・家電チャンネル $\cdot$ MOVIE ENTRY - 独女通信 ・エスマックス - livedoor HOMME - Peachy 本実験では 9 種類の文書を文書分類をするタスクを行う.まずは通常の単語分割がされていないなめ データの文書を訓練データとして学習させ、単語分割していない生データである、テストデータを実行し精度を確認した,次に各 Tokenizer で訓練データ、 テストデータを単語分割した文書を使い精度を確認した. 続けて訓練データのみ Tokenizer で単語分割した文書を使用し、テストデータは単語分割のない生データの文書で精度を確認した. 最後に訓練デー タは単語分割されていない生データを使用し、テストデータは各 Tokenizer で単語分割した文章を使いそれぞれ精度を確認した。 ## 3.2 性能評価に使用する Tokenizer 今回使用する Tokenizer の特徴は以下の通りである. Tokenizerごとにアルゴリズムがかわってくるため、特徴と違いについて触れる。 MeCab+IPAdic、MeCab+IPAdic+NEologd ラティスを構築して、その中から最適なパスを選択する。辞書である NEologd が追加されたため複数の形態素に分割されてしまう固有表現をもっているニュース記事から抽出した新語や固有名詞や道語、ネット上で流行した単語や慣用句やハッシュタグなども行っている. 文書クラスが定義する以下についての変更は禁止とする。 Juman++ 京都大学黒橋研究室で作成された,RNNを使用した形態素解析機である. ニューラル LMを用いることで精度が高くなっている. 辞 表 3 Sudachi の分割情報と 3 種類の形態素解析結果 書は基本辞書、Wikipedia、Wikiionary、Web text であり、合計で 90 万語ほどになっている. ## Sudachi [2] ワークスアプリケーションズワークス徳島人工知能 NLP 研究所が開発した形態素解析機である. UniDic 由来の単単位語句と NEologd 由来の膨大な固有名称をべースに大規模な辞書データをを構築している。約 280 万語を超えている. 最適な形態素の長さは、アプリケーションによって異なるという考えから 3 種類の形態素単位が用意されている(表 3 参照) A 単位とはほぼ UniDic の単単位規定と同じであるが、一部のものは更に短くしているものを A 単位としている. B 単位はとは $\mathrm{A}$ 単位に説示及び漢字 1 文字の名詞が結合したもの、及び複合動詞である。 $\mathrm{C}$ 単位とは更に多くの語句が結合したもので、複合名詞や固有名称、慣用句などがこれに相当し、アプリケーションごとに形態素単位を選択している. Neologd 由来の語句は長単位のものが多いため、基本的にすべて分割情報を付与している。ただし、量が膨大なため、まず機械的に分割情報を付与し、人手でチェックする さまざまなツールがある中、商業利用に耐えうる、より高品質で使い勝手の良い形態素解析器であり、辞書の継続的なメンテナンスがされる. ## nagisa [3] Bidrectional-LSTM を用いた日本語単語分割卜品詞推定が特徴である. Bi-LSTM を用いた文字単位の系列ラベリングによる解析を行うので、顔文字や URL、ネット用語に対し頑健な解析ができる. 多言語に対応している。 ## SentencePiece [4] サブワードの考え方を用いた分割方法である. 事前にテキストを単語分割し、各単語の頻度を求めておく.高頻度の単語は 1 単語として扱い、低頻度後は短い単位に分割する。最終的なトークン数が事前に与えられた数千から数万のサイズになるように分割をする。サブワードによって未知語がなくなり、低頻度語も最終的には文字になり、語彙数を小 さくすることができる. SentencePiece は文書をサブワードに分割するモデルであり、コーパスから教師なし学習が可能になる. 特徴の一つとして、End to End 処理に向けたテキストの可逆分割ができます. 通常の形態素解析の単語分割では、分割はできてもそれを復元することは困難である. この単語分割の逆を脱トー クン化という.脱トークン化を可能にするために、 SentencePiece ではスペースを通常のトークンとして扱う、便宜的にスペースをメタ文字 (_) に書き換える. 言語依存の処理がなく、完全な End-to-End 処理が可能になる. 参考として各 Tokenizerで得られる単語分割と token ID 列の例を表 1 と表 2 に示す。 ## 3.3 実験結果と考察 今回の実験では、訓練データとテストデータの文書を生データのまま東北大版 BERT で文書分類し、評価值を調べたところ、結果は 87.44 となった.これを基準として、3つの実験結果を見ていく. 訓練データとテストデータを各々同じ Tokenizer で単語分割したデータでタスクを行った. 文書分類をした結果は表 4 となった. 全体を通じて、生データのまま文書分類をした場合と比べて、評価値が飛躍的に高くなる、低くなることはなかった. SentencePiece で単語分割したデータの評価値がほかと比べて低くなっていた. 訓練データは生データ、各 Tokenizer で単語分割したテストデータで文書分類のタスクを行った結果は表 5 となった.ここでも生データのままタスクを行ったときの評価値と大きく差は出なかったが、 SentencePiece のみ 84.96 と大幅に評価値を落としていた. テストデータは生データのままで、各 Tokenizer で単語分割した訓練データでの文書分類のタスクを行った結果は表 6 となった. 同じように 88.00 を超えることはなく、SentencePiece が評価值落としていた. Tokenizerが同じで、訓練データやテストデータで比較すると、大きな違いはなく、SentencePiece 以外は 87.00 から 87.90 の間の評価値であった. 東北大版日本語 BERT の Tokenizer が MeCab+WordPiece である. 他の Tokenizer では分割が異なるため、IDが変わる。そのため、MeCabで単語分割したタスクは生データの評価値と近くなる ことが予想されていた. 逆に、他の Tokenizer で単語分割し、タスクを行ったときは評価値が下がると予想していたが評価値は MeCabでの評価值とあまり変わらなかった。これは、多少 Tokenizer の仕組みが変わっても、ID 化したときにはタスクにはあまり影響が出ない程度の違いでしかないと考えられる. Tokenizer で分割した文書を ID にしたときの違いの割合と関係していると考察する。 表 4 訓練データとテストデータを Tokenizer で単語分割両方のデータに使用した Tokenizer accuracy 生データのまま 87.44 MeCab+IPAdic 87.39 MeCab+IPAdic+NEologd 87.85 Juman++ 87.76 Sudachi 87.59 nagisa 87.71 SentencePiece 86.37 表 5 テストデータを Tokenizer で単語分割 表 6 訓練データを Tokenizer で単語分割 ## 4 おわりに 本研究では、訓練データとテストデータの文書を様々な Tokenizer を使用することによって、日本語 BERT の評価値の変化を確認することができた. 単語ごとに分割する形態素解析器での文章の分割の仕方によって、文章のトークン化に多少の違いはあるが、日本語 BERT の Tokenizer(今回は MeCab+NEologd) でトークン化した ID と結果が類似したためか精度は大きく変化はしなかった. 単語を IDにしてもところどころの変化することがあっても、その程度であれば学習に影響が出にくくなっている。もしくは単語分割、今回であれば形態素解析器らは精度が上がり、かなり正確に同じように単語分割ができており、その結果、評価值に変化が小さくなってると考えた. そうであれば単語分割のアプローチは様々あれど形態素解析であれば、結局はあまり変わらないことが予想される. 課題としては、今回は日本語 BERT の東北大版のみを実験で使用したが、日本語事前学習モデル全体でも今回の実験と同じように、結果の差が出るかはわからない。 今後は、異なる日本語 BERT での精度の変化を調べたい. SentenceBERT など Tokinizer がサブワードで単語分割されている日本語 BERT では違いがある可能性がある. ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2020 年度国立情報学研究所公募型共同研究 (2020-FC03) の助成を受けています。 ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. 2018. https://arxiv . org/abs/1810.04805 [2]坂本美保, 川原典子, 久本空海, 一馬, 内田佳孝 (株式会社ワークスアプリケーションズワークス徳島人工知能 NLP 研究所). 形態素解析器『sudachi』のための大規模辞書開発. 言語資源活用ワークショップ 2018, 2018. [3]池田大志. Pythonによる日本語自然言語処理系統ラベリングによる実世界テキスト分析, 2019. https://speakerdeck.com/taishii/pycon-jp-2019. [4]John Richardson Taku Kudo. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. 2018. https://arxiv.org/abs/ 1810.04805 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-13.pdf
# 単語属性変換による自然言語推論データの拡張 石橋 陽一 ${ }^{1}$ 須藤 克仁 ${ }^{1,2}$ 中村哲 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 科学技術振興機構さきがけ \{ishibashi.yoichi.ir3, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 自然言語推論は前提文と仮説文が与えられ、単れらの間にどのような関係が成立するかを予測するタスクである。これまでいくつかのタスクとデータセットが公開されており、例えばとの中で代表的なものとして Stanford Natural Language Inference corpus (SNLI) [1] がある。SNLI は前提文と仮説文の間に成り立つ関係として「含意」「矛盾」光しでのどちらとも判別できない例に対して「中立」の3 種類のラベルが付与されているコーパスである。SNLIのデータ数は $550 \mathrm{k}$ ペアと、自然言語推論の他のコー パス (MultiNLI [2]:433k・SciTail [3]:27k) よりも比較的多いが、現在主流のニューラルネットワークに基づく手法を利用するにあたっては、觉の性能を向上させるためにより多くのデータで学習することか望ましい。乥こで本研究では自然言語推論のデータ拡張に取り組む。 自然言語推論のデータは語の多樣性が少小いため文の表層的な情報に過学習してしまう問題点があることが指摘されている $[4]$ 。この問題の解決のためには、表層的な情報への過学習を回避するようなデータが必要である。乥こで本研究では SNLI 文中の特定の単語に対して、単の意味を反転した単語に置換することで、表層的な情報をできる限り維持したまま意味類似性が低い文を生成する手法を提案する。例えば、前提文 "The boy is eating a fruits." と、含意となる文 "The boy is eating an apple." が仮説文として与えられているとき、仮説文に対して性別を変換する単語変換を適用し、"The girl is eating an apple." を生成する。このようなデータ拡張は元の仮説文の文法やスタイル等の表層的な部分は変化させずに、意味を矛盾の方向に変化させることができる。したがって本研究のデータ拡張で生成した仮説文をモデルが学習する場合、表層的な情報だけでなく一部の単語の意味の違いに注目する必要があるため、拡張データで学習したモデルの性能が表層的な情報に左右されにくく頑健になると考えられる。 特定の単語の変換を行う手法として鏡映変換による単語属性変換 [5] がある。この手法は次の 2 つの特徵:(1) 変換対象の属性 (例: 性別)を持つ単語を変換し (2) 変換対象の属性を持たない単語は変換しないという特徴を持つ。鏡映変換に基づく単語属性変換を文中の全ての単語に鏡映変換を適用した場合、文中の一部の単語が変化し串れ以外は元文と同じであるような文を作り出すことができる。これにより元文の表層的な情報をある程度維持したまま意味を変えたデータを生成することが可能となる。 そこで本研究ではSNLIのデータ拡張に鏡映変換を適用し、单の効果を検証する。 ## 2 関連研究 SNLI のデータ拡張は Kang [6] らか提案している。 SNLI のデータはクラウドワーカーにアノテーションされているため単の語彙か限られており文の多様性か低い。单のためモデルがある種のパターンに過学習することが指摘されている [4]。例えば、前提文 “The dog did not eat all of the chickens." に対して仮説文 “ The dog ate all of the chickens.” が与えられたとき、正しいラベルは「矛盾」であるにもかかわらず、既存のモデルは「含意」と誤分類した例が蕔告されている。この問題に対して Kang らはルールテンプレートを介して大規模な語彙を文に組み込みデータを拡張することでSNLI と SciTail の精度を向上させた。本研究では別のアプローチとして単語の変換に基づく方法を提案する。 ## 3 手法 ## 3.1 単語属性変換 本研究では文のデータ拡張として、文中の特定の単語を変換する鏡映変換に基づく単語属性変換 [5] を用いる。鏡映変換に基づく単語属性変換は、変換対象の属性を持つ単語を変換し、変換対象の属性を 持たない単語は変換しないという性質を持つ。例えば性別の属性変換 $f_{\text {gender }}$ によって “man” のべクトル $\mathbf{v}_{\text {man }}$ を“woman” のベクトル $\mathbf{v}_{\text {woman }}$ に変換する。一方で、性別に対して不変であるような単語、例えば“person” のベクトルが与えられた場合は変換せず入力ベクトルと同じ $\mathbf{v}_{\text {person }}$ を出力する。これらの 2 つの性質によって文中の特定の単語(例:性別に関する単語) のみ変換し、光れ以外の単語は変換せずにノイズの少ないデータを自動で生成可能となる。ここで単語ベクトルのアナロジーでも変換可能のように思えるが、爫の場合は変換対象の単語 (例:性別単語) に関して事前知識を用意する必要がある。例えばアナロジーで男性を表す単語を女性に変換する場合、男性のベクトルから差ベクトル $d=\mathbf{v}_{\text {woman }}-\mathbf{v}_{\text {man }}$ を引くことで女性に変換し、逆に女性から男性への変換の場合 $d$ を足すことで変換する。したがってアナロジーで単語を変換する場合は入力単語ベクトル $\mathbf{v}_{x}$ が男性もしくは女性のどちらに属すかという事前知識が必要となるが、鏡映変換は事前知識を用いないための条件 (単語べクトル空間中の 2 点を同じ写像で反転可能) を淽たす写像であるため、光のような事前知識を用ることなくデー 夕拡張に適用できる。 ## 3.2 鏡映変換 図 1 鏡映変換に基づく単語属性変換 鏡映変換は鏡と呼ばれる超平面によって 2 つのべクトルの位置を反転させる写像である。標準内積が与えられた $n$ 次元実ユークリッド空間 $\mathbb{R}^{n}$ における鏡映変換は $ \operatorname{Ref}_{\mathbf{a}, \mathbf{c}}(\mathbf{v})=\mathbf{v}-2 \frac{(\mathbf{v}-\mathbf{c}) \cdot \mathbf{a}}{\mathbf{a} \cdot \mathbf{a}} \mathbf{a} $ と定義される。ここで $\mathbf{a} \cdot \mathbf{a}$ は内積を表す。また $\mathbf{a}$ および $\mathbf{c}$ は光れ艾れ鏡(超平面)を決定するパラメタであり、a は鏡に直交するべクトル、c $\mathbb{R}^{n}$ 上の点である (図 1)。 本研究では全結合の多層パーセプトロン (MLP) によって変換対象の属性ごとに鏡のパラメタである a と $\mathbf{c}$ を推定することて鏡を学習する: $ \begin{aligned} & \mathbf{a}=\operatorname{MLP}\left(\left[\mathbf{z} ; \mathbf{v}_{x}\right]\right) \\ & \mathbf{c}=\operatorname{MLP}\left(\left[\mathbf{z} ; \mathbf{v}_{x}\right]\right) \end{aligned} $ ここで $[\cdot ; \cdot]$ はベクトルの列方向の連結を表す。光して入力単語ベクトル $\mathbf{v}_{x}$ の属性を反転させたベクトルを鏡映変換し $\mathbf{v}_{y}$ を得る: $ \mathbf{v}_{y}=\operatorname{Ref}_{\mathbf{a}, \mathbf{c}}\left(\mathbf{v}_{x}\right) $ 光して予測されたベクトル $\mathrm{v}_{y}$ が目的の単語ベクトルとなるように平均二乗誤差で最適化する。 ## 3.3 データ拡張 鏡映変換に基づく単語属性変換を利用してデータ拡張を行う。最初に単語属性変換モデルを学習し、光の後 SNLI のデータに適用しデータを拡張する。本研究では SNLI データの仮説文のうち含意ラベルが付与されている文に単語属性変換を適用し、文の意味が前提文と矛盾するように単語の意味を反転させることで矛盾ラベルを付与した新たな文を生成する。単語を変換する場合、変換対象外の単語が変換されてしまうことが起きうるが、鏡映変換に基づく単語属性変換では、鏡映写像の特性によって変換対象外の単語が入力された場合はほぼ変換されないため、この問題をある程度回避する事ができる。またこれにより、一部の単語のみが変換されることで、文の表層的な情報をほとんど変えずに矛盾する文を生成できる。光こで本研究では含意ラベルが付与された仮説文の全ての単語を鏡映によって変換する。 なお、単語属性変換によって拡張するデータは訓練データのみとし、評価データは拡張を行わない。また、鏡映変換によって変化しなかった文は新たなデータとして追加しない。 ## 4 実験 ## 4.1 単語属性変換の学習と SNLI データの 拡張 まずは単語属性変換の学習を行った。[5] の単語属性変換の学習データと評価用データを結合し、学習データとして用いた。変換対象は性別と反意語とし、少れら 2 つの単語データを結合し学習データとした。事前学習済み単語埋め込みには GloVe [7] を使用した。単語べクトルの次元数は 300 次元、 5 層の MLP の隠れ層次元数は 300 次元で鏡映変換の学習を行った。最適化には Adam を使用し学習率の設 定は以前の研究で最高精度のモデルの設定を使用した。 表 1 単語属性変換の学習用データセット 次に、学習した単語属性変換を SNLI のデータに適用しデータを拡張した。表 2 は追加されたデータ数と拡張前のデータ数の比較である。拡張前と比較して最大で 24 万件データを生成・追加することができている。表 4 に生成されたデータの一例を示す。鏡映変換によって変換対象の特定の単語のみ変換されており、元の仮説文の表層的な類似性を維持したまま意味を矛盾に変えることができている。例えば、性別の鏡映変換によって “An actor is performing in an outdoor park dressed up." の “actor" を “actress" に変えているが、それ以外の単語は鏡映変換を適用しても変化していない。このため、文の品質を損なうような単語が混在した文を生成することなくノイズの少ないデータを多く生成できたと考えられる。 表 2 データ拡張の結果 表 3 単語属性変換で拡張したデータで学習したモデルのスコア 4.2 SNLI モデルの学習とデータ拡張による精度の変化 データ拡張を行っていないオリジナルのデータと、単語属性変換による拡張を行ったデータでとれぞれ SNLI のモデルを学習した。本研究では前提文と仮説文龸れ艾れを別の RNN でエンコードし結合したベクトルを MLP に入力し分類するモデル [1] を用いた。モデルの設定はすべての実験で同一とし、 RNN には 300 次元の LSTM を用い、バッチサイズは 128 で学習を行った。実験の結果を表 3 に示す。 実験の結果、データ拡張の実施前後でモデルの性能は大きく向上しなかった。この原因としてラベルの偏りによってモデルが過学習したことが挙げられる。本研究では矛盾ラベルは大きく増加しているが含意や中立のラベルは増えていないため、SNLI モデルが矛盾ラベルに過学習し、分類結果が偏るケー スが増加したと考えられる。光こで、混同行列を作成しラベルの偏りによって分類結果が異なっているか確認した (図 2)。光の結果、矛盾と中立に分類されたケースが 128 から 303 件増加していることがわかった。したがって、ラベルの偏りにモデルが過学習した結果、精度が向上しなかったと思われる。解決策として含意ラベルを付与した文を増加させる方法を検討中である。 図 2 混同行列の可視化。(a): データ拡張なし (b) : デー 久拡張 (性別) (c): データ拡張 (反意語) (d): データ拡張 (性別 + 反意語) (b)-(d) は (a) からの差分 (増減数) を元に混同行列を作成している。 ## 5 まとめと今後の課題 本研究では自然言語推論のデータ拡張のために文の表層的な情報をできる限り変化させず意味を変化させたデータを追加するデータ拡張に取り組んだ。文の表層的な類似性を保ち意味を変換するため文中の特定単語のみを変換する単語属性変換を適用し光の効果を検証した。実験の結果、鏡映変換に基づく手法は文中の特定の単語のみを変換させ、ノイズの少ないデータを多く生成することができた。実験では SNLI モデルを学習しデータ拡張による性能を比 & The woman is wearing green. & The man is wearing green. \\ 較したが、データ拡張によって特定のラベルが増加し過学習が起きた結果、モデルの性能に顕著な差は見られなかった。今後はラベルスムージングや前提文にもデータ拡張を適用し含意ラベルを増やすことでラベルの偏りを調整することを検討している。 ## 謝辞 本研究は JST さきがけ(JPMJPR1856) の支援を受けたものである. ## 参考文献 [1] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Lluís Màrquez, Chris Callison-Burch, Jian Su, Daniele Pighin, and Yuval Marton, editors, Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015, Lisbon, Portugal, September 17-21, 2015, pp. 632-642. The Association for Computational Linguistics, 2015. [2] Adina Williams, Nikita Nangia, and Samuel R. Bowman. A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference. In Marilyn A. Walker, Heng Ji, and Amanda Stent, editors, Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2018, New Orleans, Louisiana, USA, June 1-6, 2018, Volume 1 (Long Papers), pp. 1112-1122. Association for Computational Linguistics, 2018. [3] Tushar Khot, Ashish Sabharwal, and Peter Clark. SciTaiL: A Textual Entailment Dataset from Science Question Answering. In Sheila A. McIlraith and Kilian Q. Weinberger, editors, Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), the 30th innovative Applications of Artificial Intelligence (IAAI-18), and the 8th AAAI Symposium on Educational Advances in Artifi- cial Intelligence (EAAI-18), New Orleans, Louisiana, USA, February 2-7, 2018, pp. 5189-5197. AAAI Press, 2018. [4] Guanhua Zhang, Bing Bai, Junqi Zhang, Kun Bai, Conghui Zhu, and Tiejun Zhao. Mitigating Annotation Artifacts in Natural Language Inference Datasets to Improve Crossdataset Generalization Ability. CoRR, Vol. abs/1909.04242, , 2019. [5] Yoichi Ishibashi, Katsuhito Sudoh, Koichiro Yoshino, and Satoshi Nakamura. Reflection-based Word Attribute Transfer. In Shruti Rijhwani, Jiangming Liu, Yizhong Wang, and Rotem Dror, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, ACL 2020, Online, July 5-10, 2020, pp. 51-58. Association for Computational Linguistics, 2020. [6] Dongyeop Kang, Tushar Khot, Ashish Sabharwal, and Eduard H. Hovy. AdvEntuRe: Adversarial Training for Textual Entailment with Knowledge-Guided Examples. In Iryna Gurevych and Yusuke Miyao, editors, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, ACL 2018, Melbourne, Australia, July 15-20, 2018, Volume 1: Long Papers, pp. 2418-2428. Association for Computational Linguistics, 2018. [7] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global Vectors for Word Representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1532-1543, 2014.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-14.pdf
# 人狼知能開発のためのドメイン特化事前学習モデルの作成 角田一星 静岡大学 情報学部 itsunoda@kanolab.net ## 1 はじめに 不完全情報ゲームである人狼をプレイする人工知能の開発は人狼知能プロジェクト [1] と呼ばれ、高度な自然言語によるコミュニケーションと推理を要することから挑戦的なテーマとして盛んに研究されている。 しかし、人狼知能プロジェクトのような限定されたドメイン下では、近年主流となっている深層学習を用いるための十分なデータを用意することが難しい。そこで、そのような限定的なドメイン下での研究を支援するため、BERT[2]のような事前学習済みモデルの転移学習が頻繁に行われている。しかし、既にトークナイズを含め学習を行ったモデルを、通常とは大きくかけ離れたドメインに適応することは望ましくない。例えば人狼ゲームでは、専門用語や記号を頻繁に使用する上に多人数での会話を行っており、日本語 wikipediaコーパス等での事前学習が効果的かどうかは疑いの余地ある。実際、Sci-BERT[3] や、Bio-BERT[4] のようなドメイン特有のコーパスで事前学習させたモデルが汎用的なコーパスで学習させたモデルより高い精度を出したことが報告されている。 そこで本研究では、ネット上で行われた人狼ゲー ムのログを学習コーパスに用いた人狼ドメインに特化した事前学習モデルの作成を行った。提案手法により、限定的なドメインにありがちなコーパスの不足をデータ拡張によってカバーし、多人数会話口グを事前学習用コーパスとして用いる一例を示した。また、モデルに関しては、入力の最大長の設定によってモデルが学習した文脈の活用の仕方に違いがあることがわかり、汎用的なドメインのコーパスで学習されたモデルより少ない計算コストで同等の性能を発揮することができることを確認した。1)  \author{ 狩野芳伸 \\ 静岡大学情報学部 \\ kano@inf.shizuoka.ac.jp } ## 1.1 人狼とは 人狼ゲームは、数人から十数人のプレイヤーによって行われる。各プレイヤーには役職が割り振られ、その役職に応じて村人陣営と人狼陣営に分かれて戦う。互いのコミュニケーションによって"人狼" の役職を割り当てられたプレイヤーを見つけ出すことがこのゲームの目的である。各役職には他人の役職が分かる等の能力があり、嘘をついたり見破ったりしてゲームを自分の有利に進めることがこのゲー ムの醍醐味である。そのため、このゲームではプレイヤーの発言を正しく理解することが何よりも重要であり、高度な言語処理が要求される。 ## 2 提案手法 ## 2.1 事前学習モデル 事前学習タスクには Masked Language Model(以下 MLM)のみを設定した。BERT では MLM に加えて NextSentencePrediction(以下 NSP)を行うが、人狼のような多人数会話においては関連する発話が常に隣接するかどうかは保証することができず、NSP は事前学習タスクとして効果が薄いという研究結果 ([5], 4.2 項) も報告されていることから NSP は不必要であると考えた。 また、モデルの最大長が 128 トークンの small モデルと最大長が 254 トークンの large モデルの 2 つを用意した。この際、small モデルと large モデルの時間計算量を揃えるため、small モデルは large モデルの 2 倍のバッチサイズになるようにした。さらに、small モデルと large モデルの最大長以外のモデル設定の差異を可能な限り減らすため、small モデルの学習時の入力には、 large モデルに入力するデー タ 1 件を半分ずつに分割して入力するようにしてまったく同じ入力文から学習を行うようにした。詳細は以降のセクションで解説する。 なお、モデルのハイパーパラメータや細かいモデ 図 1 Windowを $1 / 3$ ずつスライドさせればコーパスは 3 倍になる。 表 2 データ成形の例 <spk>少女リーザ</spk>個人的には ジムゾンを占って欲しいかなくbr> ## ル設定は表 1 に示した通りである。 ## 2.2 コーパス 事前学習モデルのコーパスには、ネット上でチャット形式で行われている人狼 BBS[6] の全試合をクロールし用いた (ログの具体例に関しては付録に記載した)。 7249 試合、16,402,471 発話を収集し、約 5.3GB となった。なお、発話内の URL やメールアドレスは除去し、数字はゲームに関係することが多いため残している。また、改行は<br>トークンに置換し、発話者を示すための<spk>,</spk>トークンを発話冒頭に付加した(表 2)。 ## 2.3 データ拡張 2.2 で用意したコーパスのデータサイズは日本語で 5.3GB と、[2]や [5] の研究に比べて不足しているため、モデルの最大長で Window を定義しスライドさせていくデータ拡張を行った(図1)。これにより、異なる文脈によって条件付けられたデータを用意することができ、Windowを $1 / 3$ ずつスライドさせたためデータサイズは約 3 倍の 17GB となった。結果、8,967,034 件の 254 長のトークン系列を用意することができ、そのうち $8,877,364$ 件を train セット-large、残りの 89,670 件を test セット-large とした。 また、それらの各データについて半分の 127 長ずつに分割し、文頭、文末トークンの足りない方を付加して 128 長の small モデル用のデータセットとした (データセットのサイズは 2 倍になる)。 ## 3 実験 今回作成したモデルの学習設定は、一般的な BERT のモデル設定 [2] に対して、step 数は約半分、 バッチサイズは small モデルが $1 / 2$ large モデルが $1 / 4$ であり、それぞれ $1 / 4 、 1 / 8$ ほどの少ない計算コストとなっている。そこで、作成したモデルの性能を確かめるため、以下の 3 つの実験を行った。 ## 3.1 下流タスク 人狼 BBS コーパスで学習した有効性を確かめるために、作成した 2 つのモデルに加えて日本語 Wikipedia コーパスによって学習された BERT[7] の計 3 つのモデルを人狼ゲームに関する下流タスクによって比較した。下流タスクには稲葉らの公開しているコーパス [8] を拡張して作成したデータセットを用いたテキスト分類を設定した (付録 A. 3 参照)。 このタスクは、人狼中の発話をカミングアウト (自らの役職を告白すること、CO) 発話や、占い結果発話などのゲーム中に重要となる発話行為に分類する 図 23 種類の文脈の作成方法 表 3 発話行為分類結果 タスクであり、人狼知能の開発には基本となるものである。データサイズは、11952 件で、このデータセットを train:dev:test=6:2:2 に分割して学習、テストを行った。データ数に関しては表 5 に記載した。 結果は表 3 のようになった。全てのモデルで高いスコアとなり、モデルの性能にほとんど差は見られなかったが、今回作成したモデルの学習設定は wiki モデルに対して small は $1 / 4$ 、large は $1 / 8$ の計算コストであり、少ない計算コストでwiki モデルと同等の性能を発揮したということが確認できた。 ## 3.2 マスクトークンの予測 small モデルと large モデルの言語モデルとしての性能を比較するため、マスクトークンの予測による perplexityを算出した。その際、比較のために、 2.2 で用意したテストデータセットに対しては静的なマスキング処理を行い、2つのモデルが同一箇所に対するマスクトークン予測を行うようにした。 結果は表 4 に示した通りとなった。large テストセットに関しては 2.1 で示した訓練方法の効果によりほぼ同一の結果となったが、small テストセットに関しては small モデルが大差をつけて精度が高 表 5 発話行為分類タスクのデータ かった。これには二つの理由が考えられる。一つは、small テストセットは large テストセットを分割して作成されたため、large モデルが活用できる長いスパンの文脈情報が失われたことにより large モデルの不利になったこと。もう一つは、2.1 で示した訓練方法の通り、small モデルは 128 長のデータに関してバッチサイズを 2 倍にして学習していることから epoch 数が 2 倍になり、128 長のデータに関しては small モデルが有利なことである。この結果より、同一の時間計算コスト、同一文章からモデルを学習させたとしても small モデルと large モデルでは異なる文脈情報を活用するよう学習しており、small モデルは狭い範囲の文脈情報をより深く、large モデルは広い範囲の文脈情報を浅く活用しているということがわかった。large モデルの文脈情報の活用に関しては次のセクションでさらに調査した。 ## 3.3 文脈活用 large モデルがどの程度文脈を活用することができているのか、またどのような文脈を活用しているのかを明らかにするため、マスクされていない文脈情報を追加で入力する large モデルと追加しない small 図 3 small モデルと large モデルの perplexity の比 モデルとで perplexity の比較を行った。文脈情報はは図 2 に示した通り、マスキング箇所の前 127 トー クン、前後 63/64トークン、後 127 トークンの 3 種類である。また、マスキングの確率を 0.05 間隔で変化させて実験を行った。図 3 は、その結果であり、 small モデルと large モデルの perpexity の比である。 図3を見ると、常に値は 1.0 を超えており、small モデルでは入力することのできない文脈情報が perplexity の低下に効果的であることがわかった。 また、文脈は、前後 $>$ 前 $\fallingdotseq$ 後の順に perplexity の低下に寄与しており、限られた入力長下では双方向の文脈を入力することが最も効果的であることもわかった。図 3 が指数関数的に増大しているのは、マスクトークン同士の依存性を学習できない MLM 下ではマスクトークンが増えるほど文脈情報に依存するためである。 ## 4 おわりに 人狼 BBS のゲームログを用いた人狼ドメインに特化した事前学習モデルを作成した。その際、コー パスに対して Windowを重複させながらスライドすることにより学習データの水増しを行い、ドメインを限定することに伴うデータ不足を軽減した。実験により、少ない計算コストで同等の性能を出せたという点でドメインを限定した事前学習モデルが効果的であることがわかった。また、モデルは最大長の違う 2 種類を用意し、同じ時間計算コストの下で同じ文章から学習させたモデルでも最大長によってモデルが活用する情報に違いがあることがわかった。 そのため、下流タスクでより広範囲の文脈を必要としないならば精度の良い small モデル、そうでなければ large モデルという使い分けが考えられる。 また、今回作成したモデルでは、MLM 以外の事前学習タスクを行っておらず、文の分散表現に関しては学習を行っていない。今後は、文の分散表現を獲得するための事前学習タスクの考案とその評価方法が課題であり、ゲーム情報を活用した人狼特有の事前学習タスクを行いたいと考えている。 ## 5 謝辞 本研究を行うにあたり、人狼 BBS のデータ使用を許可していただいた ninjin 氏に心より感謝致します。 ## 参考文献 [1] 片上大輔, 鳥海不二夫, 大澤博隆, 稲葉通将, 篠田孝祐, 松原仁ほか. 人狼知能プロジェクト (<特集>エンターテイメントにおける ai). 人工知能, Vol. 30, No. 1, pp. 65-73, 2015. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [3] Iz Beltagy, Arman Cohan, and Kyle Lo. Scibert: Pretrained contextualized embeddings for scientific text. CoRR, Vol. abs/1903.10676, , 2019. [4] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. CoRR, Vol. abs/1901.08746, , 2019. [5] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019. [6] ninjin. 人狼 bbs, 2021. http://ninjinix.com/. [7] 鈴木正敏. Pretrained japanese bert models, 2021. https://github.com/cl-tohoku/bert-japanese/ blob/master/README.md. [8] 稲葉通将, 狩野芳伸, 大澤博隆, 大槻恭士, 片上大輔, 鳥海不二夫. 人狼 bbs に対する役職表明・能力行使報告情報のアノテーション. 第 32 回人工知能学会全国大会, 1H1-OS-13a-01, 2018 . ## A 付録 図 4 人狼 BBS の発話例 表 6 MLM の例 リーザちゃんの木の実占い!この袋の中には、白と黒の木の実が入っています。 今から、木の実をひとつだけ取り出します。白い木の実なら人間、黒い木の実なら狼さんです。 ・・取り出したのは、白い木の実なのです・・・!【フリーデルさんは<mask>!】 ## A. 1 人狼 BBS の発話例 図 4 は人狼 BBS の発話例である。プレイヤーはキャラクターに応じたロールプレイをすることが多く、専門用語や記号を多用する。 ## A. 2 MLM の例 マスクトークン予測の例を表 6 に示す。人狼 BBS では"【】"によって重要部分を囲む慣例があるため、この部分をマスクトークンにすることで例のような簡易的な要約も可能である。 ## A. 3 下流タスク [8] のアノテーションのうち、用いたラベルは"CO","占い結果","霊能結果","護衛"であり、"占い結果"と"霊能結果"は統合した。さらにスクレイピングした際のゲーム情報を利用することで、発話行為ラベルを CO した役職ごとや能力の対象にしたキャラクターごとに細分化し、ラベル数を 44 とした。また、ドメインを人狼 BBS のみに偏らせないために"【】"を除去するデータ拡張と、"【】"部分を要約したデータを人手で作成するデータ拡張を行っている。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-15.pdf
# 人間と BERT の語から語の連想の比較 相馬佑哉,堀内靖雄,黒岩眞吾 千葉大学 yuya10101 @ chiba-u.jp, \{hory, kuroiwa\} @ faculty.chiba-u.jp ## 1 はじめに 本稿では学習済みの BERT[1]を用いた連想と人間の連想の比較を行う。本稿での連想とは単語を 1 つ与えて (刺激語),そこから連想する単語(連想語) を複数回答させるというタスクである。人間の連想データとしては連想語頻度表 [2]のデータを使用する. BERT の連想では「<刺激語>から連想される語は MASK です」等の文を与え, MASK に連想語が現れるようにする。この際, 文の違い (2 文に分けた場合を含む)により生成される連想語の違いを調查した. また, 人の連想に近づけるための改善案として,MASK に鍵括弧「」を付与する手法を提案し比較した。また, 人の連想に着目した場合, 視覚情報に基づく連想も行われることから,人の連想語として色が含まれていた刺激語を選定し,言語情報のみで学習した BERT からそれらの語が連想語として現れるかを調査した。 ## 2 研究背景 ## 2.1 関連研究 連想語を取得する研究として, 小島ら [3] や稲垣ら [4], 浅見ら [5]の研究がある.小島らは概念べース,稲垣らは Word2Vec, 浅見らは N-gram を用いて人間の連想を模擬できるか検証を行った. 本稿では同様の検討を BERTを用いて行う。 一方で, 人間の連想の大規模な調査として連想語頻度表が作成されている[2]. 同表を利用した研究として, 豊嶋ら[6]や小泉ら[7]の研究がある。豊嶋らの研究では EDR 電子化辞書と Wikipedia の情報を用いて概念べースと word2vec に基づいた単語のべクトル空間を構築し, 連想語頻度表に基づいた語の連想体系としての特色に関する検証を行った. 本稿では同様の比較調査を BERT による連想語を対象に行う。また,人間の連想においては視覚情報に基づく連想も行われるとの推測から,色が連想語として含まれる刺激語に関して調查を行う。 ## 2.2 連想語頻度表 本稿では,人間の連想語として『連想語頻度表』 [2]を用いる。連想語頻度表は大規模な調査を実施して作成された連想語データベースである.連想の元となる刺激語に対して,連想語が頻度順に記載されている. 刺激語は漢字,ひらがな,カタカナで各 100 語, 計 300 語が掲載されている。漢字刺激語は 2 文字 3 モーラ, ひらがな刺激語とカタカナ刺激語は 3 文字 3 モーラの名詞であり,『日本語の語彙特性第二期』[8]からできるだけ出現頻度が高く具体性の高いものが選定されている. 調査は大学生を対象とし,漢字,ひらがな,カタカナ刺激語で延べ 934 名を対象としている.1 つの刺激語に対して 20 秒以内に 4 つまで記入を可能とした。言葉は原則として名詞という教示を行った。調查結果は『連想基準表』[9]に準じ, 1 人あたり 4 語から最初に解答された 1 語のみを用いて頻度を求めている。 ## 2.3 BERT BERT[1] B Bidirectional Encoder Representations from Transformers であり,Transformer をベースに構成されたモデルである. BERT は Masked Language Model と Next Sentence Prediction の2つのタスクで学習を行う。 ## 2.3.1 Masked Language Model Masked Language Model(マスクされた言語モデル) は「トマトの色は赤色である」を「トマトの色は MASK である」のように単語を MASK とし, その単語を予測するタスクである。 12 層の Transformer 層の後で, 1 層の全結合線形層により正解ラベル(単語) のスコアを計算する. このタスクを解くことで,単語に対応する文脈情報を学習することができる。 ## 2.3.2 Next Sentence Prediction Next Sentence Prediction(次文予測)とはぺアの文における二つ目の文が後続の文として正解かどうか予測するタスクである.このタスクを解くことで, 2 つの文の関係性を学習することができる。 ## 3 BERT を用いた連想手法 ## 3.1 BERT での連想模擬 本稿では, BERT の Masked Language Model と同様 に MASK に連想語が来るような文(以下,連想文と 表記)を使用して連想模擬を行う.以下に例を示す。 く刺激語>から連想される言葉は MASK です。 連想文の刺激語にはトマトやレモンといった単語が入り, MASK は連想語が入るトークンとなる. BERT モデルとしては, 東北大学乾・鈴木研究室の Wikipedia で訓練済み日本語 BERT モデル(BERTbase_mecab-ipadic-bpe-32k_whole-word-mask)[10] を使用した. また,連想語頻度表は原則名詞のみを連想語として回答するようにしていることから,BERT においても MASK として予測された単語のうち名詞のみを連想語として採用する。 ## 3.2 連想文の選定と鍵括弧「」の導入 表 1 に実験で使用する連想文を示す.この連想文は, 刺激語とMASKをそれぞれ文の先頭, 中央, 末尾に配置でき,なおかつ意味の通る文 $(1 \sim 4)$ とそれらを 2 文に分割した文 $(5 \sim 8)$ となっている. 本稿では,表 1 の連想文の MASK に鍵括弧「」を付与する手法も検討する.以下に例を示す. <刺激語〉から連想される言葉は「MASK」です。人間は「」が付いている単語に注目して文を読む. BERT にも同様に MASK に「」を付与することで MASK に注目を集めさせることができると考えた。 ## 表 1 実験で使用する連想文 \\ ## 4 刺激語の選定と評価方法 ## 4.1 刺激語の選定 表 2 に実験で使用する刺激語を示す. 連想語頻度表から, 連想語上位 5 語以内に色(日本語 Wikipedia において出現頻度の高い, 赤, 青, 黄, 緑, 白, 黒, ピンク)が存在する 38 単語を選定した。表 2 実験で使用する刺激語 ## 4.2 評価方法と人間の連想語の選定 本稿の評価基準として, BERT がどの程度人間の連想を模擬できているか評価するために,連想語頻度表で上位 4 語まで(連想語頻度表の調查での人間の連想語数)の連想語と一致した数を刺激語ごとに計算し,その総和を刺激語の数で割ったものを連想語スコアとし,採用した。最大値は 4 である. ## 5 語から語の連想実験 表 1 で示した連想文 $1 \sim 8$ を用いて,「」有り無しの両パターンで語から語の連想実験を行った。 ## 5.1 実験結果 表 3 に実験結果を示す. 表は BERT が予測した連想語上位 4,50,100,150 語以内における連想スコアを連想文 1 8 の「」有り無し毎に示したものである (「」有りを $1+「 」$ 等と表記),上位 4 語以降に連想語がどの程度出力されるかを考察するため 150 位までの結果も記載した。 表 3 連想語スコア (鍵括弧「」有り無し) ## 5.2 鍵括弧「」の有無の比較 - 上位 4 語では, 連想文 3 を除き, 全ての連想文で 「」の付与により連想語スコアが向上した. 一方でスコアが最大だったものは「」無しの連想文 3 で 0.605 であった. - 上位 4 語では,「」有りの 1 文の連想文 $1 \sim 4$ の平均スコアが $0.395,2$ 文の連想文 $5 \sim 8$ が 0.434 でほぼ同じスコアであった. これは, BERT が Next Sentence Prediction によって 2 文間の関係を学習しているため, 文が分かれていても 1 文と同様に連想語を予測できたからと考えられる。 - 上位 50 150 語では, 全ての連想文で「」有りの連想語スコアが向上している. スコアが最大だったものは「」有りの連想文 3 である. ## 5.3 連想文による Attention の特徴 図1, 図2 に BertViz[11]を使用した最終の Transformer 層の Attention の結果を示す. 図中の右列の背景の 12 色のバーは同層の Transformer 内に 12 ある Attention 機構(Attention Head)を各々表し,色の濃さは該当単語への Attention の強さを表している. [MASK]から各トークンに向から線の色は Attention Head の色を混合したものであり,濃度は Attention の強さを表している。 - 図 1 の連想文 1 は「」を付与することでスコアが大きく向上した連想文である $(0.000 \rightarrow 0.474)$.図 1 より,「」を付与することで MASK の前後の単語(は,です)への Attention が弱くなり,「〜は以上です」「〜はすべてです」のような前後の単語からは候補に挙がりやすい単語の出力が抑制され, 刺激語に関連する語が上位の候補として挙がりやすくなったと考えられる。 - 図 2 の連想文 3 は「」を付与してもスコアが向上しなかった連想文である $(0.605 \rightarrow 0.395)$. 連想語頻度表の刺激語ワインに対する連想語は, [赤,酒,ブドウ,フランス] である.これに対し,「」無しでは [酒, ブドウ,ビール,水] が予測され, a.「」有り b.「」無し 図 1 連想文 1 のワインにおける Attention(連想語スコアが向上) a. 「」有り b.「」無し 図 2 連想文 3 のワインにおける Attention(連想語スコアが減少) 連想語頻度表の 2 位と 3 位の単語と一致していた.この連想文では MASK の位置が中央にあり,双方向から文脈を捉えている BERTにとって情報を統合しやすく,スコアが良くなったものと考えられる。一方で,「」有りの連想語は [酒, 水, 肉, 死] であり, 連想語頻度表の単語と一致した数が減少した. この点については現在調査中である。 ## 6 色に関する連想実験 本稿で用いた刺激語(表 2)には連想語上位 5 語中に色が 1 語含まれている(以下, 連想色と呼ぶ).本章では連想色のみに着目した 4.2 の連想語スコアを計算し(以下,連想色スコアと呼ぶ。最大値は 1 である), 考察する。連想実験は「」有りの場合のみ行う.BERT に色を問いかけた場合の出力を考察するため, MASK に色の単語が入るような連想文 (表 4)を追加する. 表 4 実験で使用する連想文 \\ ## 6.1 実験結果 表 5 に上位 5 語以内における通常の連想文 $(1 \sim 4)$ と色の連想文 $(9 \sim 12)$ の連想色スコアの平均を示す. 表 5 連想色スコア (鍵括弧「」有り) ## 6.2 通常の連想文と色の連想文の比較 - 通常の連想文は上位 5 語の連想色スコアが 0.007 であり, BERT では色の連想語が出力されにくいことが判る. ・色の連想文は上位 5 語の連想色スコアが 0.572 であり, 連想色が出力されやすくなったことが判る. これは,BERT は入力文の文脈を捉えることができるため, MASK に色が入るような連想文を入力することで, 色が出力されやすくなったと考えられる。しかし, 上位 5 語以内に色の中で正解の連想色が最初に出力されたのは 4 割程度だった。 ## 7 おわりに 本稿では, BERT と人間の語から語の連想の比較を行った。人間の連想語には連想語頻度表を使用した. BERT での連想模擬には MASK に連想語が入るような連想文を作成するとともに,連想文の MASK に鍵括弧「」を付与する手法を提案し,比較を行った.その結果,鍵括弧「」を付与することで,刺激語とは関係の低い単語の出力を抑制することができた. また, BERT では,連想文を 2 文に分割しても単文と同程度の品質の連想が可能であった. さらに, Attention をコントロールすることで語から語の連想が改善される可能性があることが判った。 以上より,限られた実験ではあるが,MASK を文中におき,刺激語と近づけ MASKを「」で囲むことが有効であることが示唆された. なお, 本実験では上位 4 語で人間の連想語と一致するものは最大で 0.6 語程度であったが,上位 150 語以内には人間の連想語の半数以上が含まれており,連想というタスクでファインチューニングすることで人間の連想に近づけられる可能性はある. 一方で,色の連想語が予測されにくいこと,および文脈から色のみが MASK に入る文を用いることで他の連想語と同程度までは予測できること,が明らかとなった。これらのことから,人間にとって刺激語と関連性が高い色であっても, 言語情報のみ学習している BERT では必ずしも連想色が出力されるわけではないことが判った. 今後は連想文の改良, Attention をコントロールする方法の模索を行っていく. また, 色に関する連想語を出力しやすくするために画像情報を用いた連想模擬の手法も検討していく. ## 謝辞 本研究を進めるに当たり,乾・鈴木研究室の訓練済み日本語 BERT モデルをお借りしました。モデルを公開してくださったことに厚く御礼を申し上げ,感謝の意を表します. 本研究は JSPS 科研費 JP20K11860 の助成を受けたものです. ## 参考文献 1. Jacob Devlin, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. s.l. : arXiv preprint arXiv:1810.04805, 2018. 2. 水野りか, ほか. 連想語頻度表一 3 モーラの漢字・ひらがな・カタカナ表記語一. ナカニシヤ出版,2011. 3. 小島一秀, 渡部広一, 河岡司. 連想システムのための概念ベース構成法一語間の論理的関係を用いた属性拡張一。自然言語処理/11 巻(2004)3 号, 2004. 4. 稲垣健吾, ほか. 人間の連想を模擬するシステ厶の開発と分析. 言語処理学会第 22 回年次大会発表論文集, 2016 . 5. 浅見一樹, 杉本徹. 連想語の自動取得に関する研究. 言語処理学会第 25 回年次大会発表論文集, 2019 . 6. 豊嶋章宏, 奥村紀之. 語の連想体系としての概念ベースの評価. 信学技報 vol.115, no.70, NLC2015-1, pp.1-5, 2015. 7. 小泉政弥,ほか. 人間の連想傾向を基にした属性の重み補正による概念ベースの精鍊. 人工知能学会研究会資料,2015. 8. 天野成昭, 近藤公久. 日本語の語彙特性第二期. 三省堂,2003. 9. 梅本堯夫.連想基準表.東京大学出版会, 1969 10. 東北大学乾・鈴木研究室. Pretrained Japanese BERT models. (引用日: 2021 年 01 月 02 日.) https://github.com/cl-tohoku/bert-japanese. 11. Jesse Vig. A Multiscale Visualization of Attention in the Transformer Model. Florence, Italy: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations", 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-16.pdf
# 知識グラフ埋め込み学習における損失関数の統一的解釈 上垣外 英剛* 東京工業大学 kamigaito@lr.pi.titech.ac.jp } 林克彦* 群馬大学 khayashi0201@gmail.com ## 1 はじめに 知識グラフとはエンティティ間の関係を記述したグラフであり,対話や質問応答などに利用される。 しかし,知識グラフを作成するには,膨大なエンティティの組み合わせとその関係を考慮する必要があり,人手・半自動で完全なグラフを構築することは困難である。そのため,自動でエンティティ間のリンク予測を行うことは重要な課題である. 現在,エンティティ間のリンク予測は主に知識グラフの埋め込み表現に基づいたスコアリング法 [1] を用いて行われている。この方法では,各リンクに対するスコアをエンティティ及び関係の埋め込み表現によって計算するが,埋め込み表現の学習は様々な損失関数を用いて行われている。特に,表現学習において一般的に使用されていることもあり,ソフトマックス関数に対する交差エントロピー(SCE; Softmax Cross Entropy)を用いる方法 [2] や,その近似法の一つである負例サンプリング(NS; Negative Sampling)による方法 [3] が主流である.近年,これらの損失関数と既存のスコアリング方法との組み合わせを適切に選択することにより,リンク予測の性能が大きく変化することが文献 [4] で経験的に示されている. その一方で,SCE 損失と $\mathrm{NS}$ 損失に対する理論的な関係性はあまり探求されていない。そのため,これらの異なる損失関数を用いた際の結果を比較することが公平であるのか否か,またどのような条件であればそれが可能であるか,などの議論を困難にしている。 さらに,スコアリング手法と損失関数の関係が明らかでないことは,予測精度を向上させる上で様々な組み合わせを試行して, 経験的に良好な組み合わせを導く必要があり,ハイパーパラメータを探索するための計算量を膨大なものとしている。 本稿では,これらの問題を解決するために, Bregman 距離(Bregman Divergence)[5]を用いて * 共同責任著者 $\mathrm{SCE}$ 損失と NS 損失の統一的な解釈を試みた。この解釈の下で,どのような条件において両損失関数での最適解が同一になり得るかを理論的に確認し,両関数の背後に存在する距離の違いが学習結果にどのような影響を及ぼすかを実験的に検証した。 ## 2 Bregman 距離と SCE 損失 知識グラフにおけるエンティティ $e_{i}$ と $e_{j}$ の関係 $r_{k}$ によるリンクを $\left(e_{i}, r_{k}, e_{j}\right)$ と表記する. 与えられたクエリ $\left(e_{i}, r_{k}, ?\right)$ や $\left(?, r_{k}, e_{j}\right)$ に対して,リンク予測モデルは?に対応するエンティティを予測する. このようなクエリを入力 $x$ ,予測するべきエンティティを $y$ とするとき,モデルパラメータ $\theta$ に基づくスコア関数 $f_{\theta}(x, y)$ の下, $x$ から $y$ が予測される確率 $p_{\theta}(y \mid x)$ は,ソフトマックス関数を用いて次のように定義される: $ p_{\theta}(y \mid x)=\frac{\exp \left(f_{\theta}(x, y)\right)}{\sum_{y^{\prime} \in Y} \exp \left(f_{\theta}\left(x, y^{\prime}\right)\right)} . $ $Y$ は予測候補となる全エンティティを表す。 次に Bregman 距離についての説明を行う. 入力 $x$ とその出力ラベル $y$ のペアを $(x, y)$ として書く. 観測データを $D=\left.\{\left(x_{1}, y_{1}\right), \cdots,\left(x_{|D|}, y_{|D|}\right)\right.\}$ とし, これは分布 $p_{d}(x, y)$ に従うとする. $\Psi(z)$ を微分可能な関数とすると, 分布 $f$ と $g$ の間の Bregman 距離は以下のように定義される: $ d_{\Psi(z)}(f, g)=\Psi(f)-\Psi(g)-\Delta \Psi(g)^{T}(f-g) . $ $\Psi(z)$ を変えることによって,様々な距離を表現することが可能となる. 本稿では,文献 [6] と同様に,観測データ全体における距離の最小化を考えるため, $f$ を固定した上で, $d_{\Psi}(f, g)$ の期待值を $ \begin{aligned} & B_{\Psi(z)}(f, g) \\ & =\sum_{(x, y) \in D}\left[-\Psi(g)+\Delta \Psi(g)^{T} g-\Delta \Psi(g)^{T} f\right] p_{d}(x, y) \end{aligned} $ として定義する. 文献 [6] より, $\Psi(z)$ が厳密に凸で微分可能なとき1) に $B_{\Psi(z)}(f, g)=0$ が満たされてい 1)なお,本稿で扱う $\Psi(z)$ は全てこの性質を満たす. れば, $f$ と $g$ は等価である. 本稿では,分布と損失関数の間における関係性を調べるため,B $B_{\Psi(z)}$ の最小化を考える。 後述する NS との比較のために,式 (3)を用いて,我々はまず SCE 損失関数の導出を行う. 式 (3) において $f$ に $p_{d}(\mathbf{y} \mid x) を^{2)}, g$ に $p_{\theta}(\mathbf{y} \mid x)$ を入力し, ベクトルの次元数を表す関数 lenを用いて, $\Psi(\mathbf{z})=\sum_{i=1}^{l e n(\mathbf{z})} z_{i} \log z_{i}$ とした際に, SCE 損失関数は次のように導出される. $ \begin{aligned} & B_{\Psi(\mathbf{z})}\left(p_{d}(\mathbf{y} \mid x), p_{\theta}(\mathbf{y} \mid x)\right) \\ = & -\sum_{(x, y) \in D}\left[\sum_{i=1}^{|Y|} p_{d}\left(y_{i} \mid x\right) \log p_{\theta}\left(y_{i} \mid x\right)\right] p_{d}(x, y) \\ = & -\frac{1}{|D|} \sum_{(x, y) \in D} \log p_{\theta}(y \mid x) . \end{aligned} $ この導出から $B_{\Psi(z)}\left(p_{d}(\mathbf{y} \mid x), p_{\theta}(\mathbf{y} \mid x)\right)$ が 0 となる最小化を通じて $p_{\theta}(y \mid x)$ が $p_{d}(y \mid x)$ に等しくなることが分かる. 本稿では以降,このように式 (3) が 0 となる際の $p_{\theta}(y \mid x)$ を目的分布と呼ぶ. ## 3 NS の解釈、SCE との関係性 Bregman 距離を使って NS の性質について議論する. 分布 $p_{d}(x, y)$ に従う観測データ $D$ の各サンプル $(x, y) \in D$ に対して, $\mathrm{NS}$ では既知の雑音分布 $p_{n}$ から $v$ 個の雑音サンプルを抽出し, 分布 $G(y \mid x ; \theta)=\exp \left(-f_{\theta}(x, y)\right)$ に対するモデルパラメー タ $\theta$ の推定を考える。まず, $(x, y)$ が観測データから抽出されたサンプルであれば,二値クラスラベル $C=1$ とし, 雑音分布 $p_{n}$ から抽出されたサンプルであれば, $C=0$ とすると,クラスラベル $C$ に対する事後確率は以下のように定義できる. $ \begin{aligned} & p(C=1, y \mid x ; \theta)=\frac{1}{1+\exp \left(-f_{\theta}(x, y)\right)}=\frac{1}{1+G(y \mid x ; \theta)} \\ & p(C=0, y \mid x ; \theta)=1-p(C=1, y \mid x ; \theta)=\frac{G(y \mid x ; \theta)}{1+G(y \mid x ; \theta)} \end{aligned} $ さらに, NS の目的関数 $\ell^{N S}(\theta)$ は以下のように定義できる. $ \begin{aligned} \ell^{N S}(\theta)= & -\frac{1}{|D|} \sum_{(x, y) \in D}[\log (P(C=1, y \mid x ; \theta)) \\ & \left.+\sum_{i=1, y_{i} \sim p_{n}}^{v} \log \left(P\left(C=0, y_{i} \mid x ; \theta\right)\right)\right] . \end{aligned} $ ここで Bregman 距離を使って目的関数 $\ell^{N S}(\theta)$ について以下の性質を導くことができる。 2)本項では,ラベル $y$ に対する確率を $p(y)$ ,全てのラベル $\mathbf{y}$ に対する確率値のべクトルを $p(\mathbf{y})$ のように記述する。命題 $1 \Psi(z)=z \log (z)-(1+z) \log (1+z)$ とすることで,式(3)から $\ell^{N S}(\theta)$ を導くことができ, $\ell^{N S}(\theta)=0$ のとき,次の式が成立する: $ G(y \mid x ; \theta)=\frac{p_{d}(y \mid x)}{v p_{n}(y \mid x)} $ 命題 $2 P_{\theta}(y \mid x)$ に対して, $e^{N S}(\theta)$ の目的分布は: $ \frac{p_{d}(y \mid x)}{p_{n}(y \mid x) \sum_{y_{i} \in Y} \frac{p_{d}\left(y_{i} \mid x\right)}{p_{n}\left(y_{i} \mid x\right)}} $ 証明命題 1,2 の証明は付録に記す 上記の結果に対して,例えば, $p_{n}(y \mid x)=p_{d}(y)$ とすれば,式 (8) は自己相互情報量から定数 $\log v$ を減じた形となる.これは文献 [7] の結論と同様であり,我々の結論はその一般化となっている. ## 3.1 様々な雑音分布 $\mathrm{SCE}$ 損失の目的分布とは異なり,式 (9) は雑音分布 $p_{n}(y \mid x)$ の影響を受ける.よって,特定の雑音分布 $p_{n}(y \mid x)$ を考えることで, 式 (9) のより詳細な分析を行う。また,そこから $\mathrm{SCE}$ との関係性も導く。 ## 3.1.1 一様雑音分布 知識グラフ埋め込みの学習において最もよく使われている離散の一様雑音分布 $u\{1,|Y|\}$ を考える。 $p_{n}(y \mid x)$ が一様のとき,以下の性質を導出できる. 命題 3 式 (9) は $p_{d}(y \mid x)$ となる. 証明 $p_{n}(y \mid x) \sum_{y_{i} \in Y} \frac{p_{d}\left(y_{i} \mid x\right)}{p_{n}\left(y_{i} \mid x\right)}=\sum_{y_{i} \in Y} p_{d}\left(y_{i} \mid x\right)=1$ であり,式(9) は $p_{d}(y \mid x)$ となる. この結論は $P_{n}(y \mid x)$ が一様であるとき, $\ell^{N S}$ の目的分布が SCE 損失と一致することを示している. ## 3.1.2 自己敵対雑音分布 Sun ら [8] は自己敵対負例サンプリング(SANS) を提案している. SANS は $p_{\theta}(y \mid x)$ を雑音分布として利用するので,式 (9) は次のように書ける: $ \frac{p_{d}(y \mid x)}{p_{\hat{\theta}}(y \mid x) \sum_{y_{i} \in Y} \frac{p_{d}\left(y_{i} \mid x\right)}{p_{\hat{\theta}}\left(y_{i} \mid x\right)}} . $ ここで $\hat{\theta}$ は最後に更新された結果に基づくパラメー タである. 式 (10) を解析的に理解することは難しいが, $p_{\theta}(y \mid x)$ の特殊な場合について考えることで 分析を進める. 学習前, パラメータ $\theta$ はランダムに初期化されるため, $p_{\theta}(y \mid x)$ は $u\{1,|Y|\}$ に従う. その際,式 (10) は $p_{d}(y \mid x)$ となる。逆に, $p_{\hat{\theta}}(y \mid x)$ を $p_{d}(y \mid x)$ に設定すると, 式 (10) は $u\{1,|Y|\}$ となる. このように, 式 (10) では, $p_{\hat{\theta}}(y \mid x) \rightarrow u\{1,|Y|\}$ となるとき, $p_{\theta}(y \mid x) \rightarrow p_{d}(y \mid x), \quad p_{\hat{\theta}}(y \mid x) \rightarrow u\{1,|Y|\}$ となるとき, $p_{\theta}(y \mid x) \rightarrow p_{d}(y \mid x)$ と収束する. 実際のミニバッチ学習において, $\theta$ は各バッチデータに対して逐次的に更新が行われるため, SANS の目的分布は $p_{d}(y \mid x)$ と $u\{1,|Y|\}$ の間での均衡に基づいて決定されていると考えられる. この考えに基づいて, $p_{d}(y \mid x)$ と $u\{1,|Y|\}$ の重み付き和を SANS の目的分布と仮定する. SANS では $p_{\hat{\theta}}(y \mid x)$ を以下のように定式化している: $ p_{\hat{\theta}}(y \mid x)=\frac{\exp \left(\alpha f_{\theta}(x, y)\right)}{\sum_{y} \exp \left(\alpha f_{\theta}(x, y)\right)} $ $\alpha$ は温度パラメータであり, これも上記の均衡を調整する役割がある。従って, $p_{\theta}(y \mid x)$ に対する SANS の目的分布を以下として表す: $ p_{\theta}(y \mid x) \approx(1-\lambda) p_{d}(y \mid x)+\lambda u\{1,|Y|\} $ $\lambda$ は $p_{\theta}(y \mid x)$ を $p_{d}(y \mid x)$ または $u\{1,|Y|\}$ のどちらに近づけるかを決定するハイパーパラメータである. 式 (12) の結果を用いて同様の目的分布を持つ SCE 損失を確認する. $q(y \mid x)=(1-\lambda) p_{d}(y \mid x)+\lambda u\{1,|Y|\}$ と $\Psi(\mathbf{z})=\sum_{i=1}^{l e n(\mathbf{z})} z_{i} \log z_{i}$ と置き, 式 (5) から式 (6)への変換に基づいて,新しい SCE 損失の形式 $ \begin{aligned} & B_{\Psi(\mathbf{z})}\left(p_{d}(\mathbf{y} \mid x), p_{\theta}(\mathbf{y} \mid x)\right) \\ &=- \sum_{(x, y) \in D}\left[\sum_{i=1}^{|Y|}(1-\lambda) p_{d}\left(y_{i} \mid x_{t}\right) \log p_{\theta}\left(y_{i} \mid x_{t}\right)\right. \\ &\left.+\sum_{i=1}^{|Y|} \lambda u\{1,|Y|\} \log p_{\theta}\left(y_{i} \mid x_{t}\right)\right] p_{d}(x, y) \\ &=-\frac{1}{|D|} \sum_{(x, y) \in D}\left[(1-\lambda) \log p_{\theta}(y \mid x)\right. \\ &\left.+\sum_{i=1}^{|Y|} \frac{\lambda}{|Y|} \log p_{\theta}\left(y_{i} \mid x\right)\right] \end{aligned} $ が導出される.この形式は SCE 損失に対するラべルスムージング [9] と等価であり, SANS がラベルスムージングと同様の効果を持つことがわかる. ## 4 SCE と NS 損失の統一的解釈 3)なお,w / LS はラベルスムージングを,w/ Uni は雑音として離散一様分布を使用したことをそれぞれ表す。表 1 各損失関数間の関係 3 ). 各損失関数の関係を表 1 に示す.この表から読み取れるように,一様雑音分布の下での NS 損失と $\mathrm{SCE}$ 損失の目的分布が等価なものであることが分かる.また,自己敵対雑音分布を用いた際の NS 損失とラベルスムージングを用いた際の SCE 損失の目的分布が極めて類似していることも分かる. これらの知見は $\mathrm{NS}$ 損失と SCE 損失に基づく手法を公平に比較する際に重要である。ななせならば,対象とするデータセットに疎なエンティティが含まれている場合,ラベルスムージングを用いた SCE 損失と SANS 損失では,モデルによる性能改善が存在しなくとも,スムージングにより性能が改善する可能性があるためである.このことから,目的分布の観点に基づいて NS 損失に基づくモデルと SCE 損失に基づくモデルを公平に比較するためには,NS 損失で一様雑音分布が使用されている場合には,SCE 損失をそのまま使用し, NS 損失で一様雑音分布が使用されている場合には,SCE 損失でラベルスムージングを使用することが必要である. $\mathrm{NS}$ 損失と SCE 損失における $\Psi(z)$ を比較することは目的分布に着目することと同等以上に重要である.これは $\Psi(z)$ が損失における距離を決定し,その距離がモデルのデータセットに対する振る舞いを決定する上で重要な役割を果たすためである. 図 1 に表 1 で示されている NS 損失と SCE 損失のそれぞれにおける $\Psi$ を用いて式 (2) の距離を計算し, 確率 $p$ のそれぞれの値と確率 0.5 との距離を示した。この図から読み取れるように,SCE 損失の方が NS 損失よりも大きな距離を示すことが分かる. 表 2 それぞれのモデルと損失関数の組み合わせを用いた場合の FB15k-237 と WN18RR での実験結果. なお,文献 [10] では,二値ラベルにおける Bregman 距離の上界は $\Psi(z)=z \log (z)$ とした際であることが示されており,我々の観測はこの結果に沿っている. SCE 損失と NS 損失が分布間に与える距離の違いは,モデルの差異に起因する問題を生じさせる原因となりうる.SCEを用いた場合には,自由度が高く表現力が高いモデルを訓練データに適合させることに寄与する一方,事前分布や制約に基づく表現力が低いモデルでは学習を妨げる可能性がある。また,NS を用いた場合に,自由度が高く表現力が高いモデルでは過少適合を起こす可能性がある一方,事前分布や制約により表現力が制限されるモデルでは, 訓練事例への過度な適合を回避し, 学習の進行に寄与する可能性がある. これらの問題は対象とするモデルやデータによって振る舞いが決定されるため,現在主流となっている設定に基づいて影響を実験的に検証する。 ## 5 実験 本節では SCE 損失と NS 損失の性質を検証するための実験を行う.データセットには FB15k-237 [11] とWN18RR [12]を使用し,評価には MRR,Hits@3 を用いる。比較対象のモデルとして TuckER [13], RESCAL [1], ComplEx [14], RotatE [8] を選択し,実装は LibKGE $[15]^{4)}$ のものを利用した。これらのモ  デルのハイパーパラメータは RESCAL,ComplEx については先行研究 [4] で最高精度を達成した設定を, TuckER,RotatE については元の論文の設定を使用した. SANS を適用する際には RotatE 以外のモデルでは LibKGE の初期值である 1.0 を使用し,RotatE では元の論文で SANS が使用されているため,その設定に従った.ラベルスムージングを適用する際には,RotatE 以外のモデルでは LibKGE の初期値である 0.3 を使用したが,RotatE では比較対象である SANS の值がチューニングされているため,公平性のために開発データを用いて $\{0.3,0.1,0.01\}$ から值を選択した。他の詳細な設定は付録に記載した。 表 2 に実験結果を示す. SCE w/ LS で性能向上する時に,多くの場合で SANS でも性能が向上している.この結果からいずれのデータセットでも疎なエンティティが問題となっていることが分かる. またこの結果は $\mathrm{SCE}$ w/ LS と SANS が対応しているという我々の解釈に沿うものである。なお,RotatEではこの関係が成立していないが,後述するようにこの結果は SCE が訓練データに適合できていないためであると考えられる。訓練データに適合していないのであれば出力が既に平滑化されており, SCEw/ LS の効果が抑制されるからである. スコアリング法と損失関数の組み合わせの点からは, TuckER, RESCAL, ComplEx といった表現力が高い手法では SCE と比較して NS の結果が高くないことから,SCE の過剰適合ではなく,むしろ NS の過少適合が問題であると考えられる。さらに,モデル上の制約が多い RotatE では NS でより高い性能を発揮していることから,我々が予想したように自由度が高いモデルでは SCE が有用で,制約に基づくモデルでは NS が有用であることが分かる. ## 6 まとめ 本稿では Bregman 距離を用いて知識グラフの埋め込み学習における $\mathrm{SCE}$ 損失と $\mathrm{NS}$ 損失の二つの関数を統一的に解釈した. その結果, 目的分布の点からは SCE と一様雑音分布に基づくNS が等価であり, またSCE でラベルスムージングを用いた場合と自己敵対的雑音に基づく NS が類似していることを示した. さらに,SCE はNSよりも大きな距離を持つことを明らかにし,実験により SCE は表現力の高いスコアリング法と相性が良く,NS は制約をもつ自由度の低いスコアリング法との相性が良いことを示した. ## 参考文献 [1] Antoine Bordes, Jason Weston, Ronan Collobert, and Yoshua Bengio. Learning structured embeddings of knowledge bases. In Proceedings of the Twenty-Fifth AAAI Conference on Artificial Intelligence, AAAI'11, p. 301-306. AAAI Press, 2011. [2] Rudolf Kadlec, Ondrej Bajgar, and Jan Kleindienst. Knowledge base completion: Baselines strike back. In Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 69-74, Vancouver, Canada, August 2017. Association for Computational Linguistics. [3] Antoine Bordes, Nicolas Usunier, Alberto GarciaDuran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multirelational data. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26, pp. 2787-2795. Curran Associates, Inc., 2013. [4] Daniel Ruffinelli, Samuel Broscheit, and Rainer Gemulla. You can teach an old dog new tricks! on training knowledge graph embeddings. In International Conference on Learning Representations, 2020. [5] L.M. Bregman. The relaxation method of finding the common point of convex sets and its application to the solution of problems in convex programming. USSR Computational Mathematics and Mathematical Physics, Vol. 7, No. 3, pp. 200 - 217, 1967. [6] Michael U. Gutmann and Jun-ichiro Hirayama. Bregman divergence as general framework to estimate unnormalized statistical models. In Proceedings of the Twenty-Seventh Conference on Uncertainty in Artificial Intelligence, UAI' 11, p. 283-290, Arlington, Virginia, USA, 2011. AUAI Press. [7] Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 27, pp. 2177-2185. Curran Associates, Inc., 2014. [8] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. Rotate: Knowledge graph embedding by relational rotation in complex space. CoRR, Vol. abs/1902.10197, , 2019. [9] Rafael Müller, Simon Kornblith, and Geoffrey E Hinton. When does label smoothing help? In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32, pp. 4694-4703. Curran Associates, Inc., 2019 . [10] A. Painsky and G. W. Wornell. Bregman divergence bounds and universality properties of the logarithmic loss. IEEE Transactions on Information Theory, Vol. 66, No. 3, pp. 1658-1673, 2020. [11] Kristina Toutanova and Danqi Chen. Observed versus latent features for knowledge base and text inference. In Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality, pp. 57-66, Beijing, China, July 2015. Association for Computational Linguistics. [12] Tim Dettmers, Minervini Pasquale, Stenetorp Pontus, and Sebastian Riedel. Convolutional 2d knowledge graph embeddings. In Proceedings of the 32th AAAI Conference on Artificial Intelligence, pp. 1811-1818, February 2018. [13] Ivana Balazevic, Carl Allen, and Timothy Hospedales. TuckER: Tensor factorization for knowledge graph completion. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp.5185-5194, Hong Kong, China, November 2019. Association for Computational Linguistics. [14] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Complex embeddings for simple link prediction. In ICML, pp. 2071-2080, 2016. [15] Samuel Broscheit, Daniel Ruffinelli, Adrian Kochsiek, Patrick Betz, and Rainer Gemulla. LibKGE - A knowledge graph embedding library for reproducible research. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 165-174, 2020. ## A 付録 ## A. 1 命題 1, 2 の証明 $\ell^{N S}$ は以下のように定式化できる: $ \begin{aligned} \ell^{N S}(\theta) & =-\frac{1}{|D|} \sum_{(x, y) \in D}\left(\log (P(C=1, y \mid x ; \theta))+\sum_{i=1, y_{i} \sim p_{n}}^{v} \log \left(P\left(C=0, y_{i} \mid x ; \theta\right)\right)\right) \\ & =-\frac{1}{|D|} \sum_{(x, y) \in D} \log (P(C=1, y \mid x ; \theta))-\frac{1}{|D|} \sum_{(x, y) \in D} \sum_{i=1, y_{i} \sim p_{n}}^{v} \log \left(P\left(C=0, y_{i} \mid x ; \theta\right)\right) \\ & =-\frac{1}{|D|} \sum_{(x, y) \in D} \log \left(\frac{1}{1+G(y \mid x ; \theta)}\right)-\frac{1}{|D|} \sum_{(x, y) \in D} \sum_{i=1, y_{i} \sim p_{n}}^{v} \log \left(\frac{G\left(y_{i} \mid x_{t} ; \theta\right)}{1+G\left(y_{i} \mid x_{t} ; \theta\right)}\right) \\ & =\frac{1}{|D|} \sum_{(x, y) \in D} \log (1+G(y \mid x ; \theta))+\frac{v}{v|D|} \sum_{(x, y) \in D} \sum_{i=1, y_{i} \sim p_{n}}^{v} \log \left(1+\frac{1}{G\left(y_{i} \mid x ; \theta\right)}\right) \\ & =\sum_{(x, y) \in D} p_{d}(y \mid x) \log (1+G(y \mid x ; \theta)) p_{d}(x)+\sum_{(x, y) \in D} v p_{n}(y \mid x) \log \left(1+\frac{1}{G(y \mid x ; \theta)}\right) p_{d}(x) \end{aligned} $ ここで $u=(x, y), f(u)=\frac{v p_{n}(y \mid x)}{p_{d}(y \mid x)}, g(u)=G(y \mid x ; \theta), \quad p_{d}(x)=\frac{1}{p_{d}(y \mid x)} p_{d}(x, y)$ と置くと, 式 (14) を以下のように書き換えることができる: $ \begin{aligned} \ell^{N C E}(\theta)= & \left(\sum_{(x, y) \in D} p_{d}(y \mid x) \log (1+g(u)) \frac{1}{p_{d}(y \mid x)} p_{d}(x, y)+\sum_{(x, y) \in D} v p_{n}(y \mid x) \log \left(1+\frac{1}{g(u)}\right) \frac{1}{p_{d}(y \mid x)} p_{d}(x, y)\right) \\ = & \sum_{(x, y) \in D}\left[\log (1+g(u))+\log \left(1+\frac{1}{g(u)}\right) f(u)\right] p_{d}(x, y) \\ = & \sum_{(x, y) \in D}[\log (1+g(u))-\log (g(u)) f(u)+\log (1+g(u)) f(u)] p_{d}(x, y) \\ = & \sum_{(x, y) \in D}[-g(u) \log (1+g(u))+(1+g(u)) \log (1+g(u))+\log (g(u)) g(u)+\log (1+g(u)) g(u) \\ & -\log (g(u)) f(u)+\log (1+g(u)) f(u)] p_{d}(x, y) \end{aligned} $ $\Psi(g(u))=g(u) \log (g(u))-(1+g(u)) \log (1+g(u))$ と $\Psi^{\prime}(g(u))=\log (g(u))-\log (1+g(u))$ に基づいて,式 (15)をさらに変形できる: $ \ell^{N C E}(\theta)=\sum_{(x, y) \in D}\left[-\Psi(g(u))+\Psi^{\prime}(g(u)) g(u)-\Psi^{\prime}(g(u)) f(u)\right] p_{d}(x, y)=B_{\Psi}(g(u), f(u)) . $ 式(16) から, $g(u)=f(u)$ で $\ell^{N S}(\theta)$ が最小化されるとき, $G(y \mid x ; \theta)$ は $\frac{v p_{n}(y \mid x)}{p_{d}(y \mid x)}$ となる. そして, $\exp \left(f_{\theta}(x, y)\right)$ は $ \exp \left(f_{\theta}(x, y)\right)=\frac{p_{d}(y \mid x)}{v p_{n}(y \mid x)} $ となる. よって,ソフトマックス関数の定義から, $p_{\theta}(y \mid x)$ の目的分布は以下となる: $ p_{\theta}(y \mid x)=\frac{p_{d}(y \mid x)}{p_{n}(y \mid x) \sum_{y_{i} \in Y} \frac{p_{d}\left(y_{i} \mid x\right)}{p_{n}\left(y_{i} \mid x\right)}} . $ ## A. 2 使用したハイパーパラメータ 表 3 に使用したハイパーパラメータの一覧を示す. . Dim はエンティティ埋め込みの次元数を,LS はラベルスムージングを AS は敵対雑音サンプリングの温度パラメータをそれぞれ表す. 各モデルは両方向のクエリに対応できるようエンティティの埋め込みのみを共有した逆側モデルも学習し, 最大エポック数を 800 とした. また, 開発データにて 5 エポック毎に MRRを計算し, その最高値が 10 回更新されなかった際に学習を打ち切った. 表 3 使用したハイパーパラメータの一覧
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-17.pdf
# CSJを用いた日本語話し言葉 BERT の作成 勝又智 株式会社レトリバ satoru.katsumata@retrieva.jp ## 1 はじめに 現在,大規模なテキストデータを元に学習された事前学習モデルが多く公開されている. 特に近年では BERT [1]を用いた研究が盛んに行われている. BERT とは, Transformer [2] の Encoder に対し $\tau$, Masked Language Model (MLM) と Next Sentence Prediction(NSP)と呼ばれる事前学習を行ったものである。日本語については,Wikipedia やSNS デー タなどの書き言葉1)を用いて事前学習した BERT がいくつか公開されている. しかしながら,発話の書き起こしといった,話し言葉に注目した日本語事前学習モデルは著者の知る限り存在していない。そこで,本研究では,発話の書き起こしデータである日本語話し言葉コー パス (Corpus of Spontaneous Japanese; CSJ) [3] を用いて話し言葉 BERT の作成を行った. 具体的には, Wikipedia で学習された書き言葉 BERTを元に, 次の 2 つの手法を用いて話し言葉 BERTを作成した. ## 1. 一部の層のみを話し言葉データで追加学習 2. 分野適応の手法を用いて追加学習 1 つめの手法は,書き言葉と話し言葉の差は主に統語的な側面にあるという仮説のもと, BERT の学習を行う. BERT における統語情報の学習がどの層で行われてるのかに関して, 複数の観点から研究が行われている $[4,5,6]$. 彼らの主張に基づいて,一部の統語的な面を学習していると考えられる層のみを追加学習することで,BERT の層の全てを学習するより話し言葉の統語情報をうまく学習できるのか検証した. 2 つめの手法は, 話し言葉 BERTを作成するために,書き言葉で学習した BERT に対して話し言葉データで分野適応を行う.具体的には Gururangan ら [7] の手法を参考に, CSJ 以外の発話の書き起こ  \author{ 坂田大直 \\ 株式会社レトリバ \\ hiromasa.sakata@retrieva.jp } しデータを用意し,それらを用いて BERTを分野適応した。 また,作成した話し言葉 BERTを評価するため,本研究では評価タスクを作成した. CSJには様々なアノテーションがされており,その中から本研究は係り受け解析と文境界推定,重要文抽出の 3 つの評価タスクを作成した。係り受け解析は,作成したモデルが統語的な情報を捉えられているか,文境界推定と重要文抽出は応用的なタスクに転用可能かどうか調べるために行う。 実験結果から,BERT の一部の層のみを学習する手法は統語的な面が強いタスクに有効であることがわかった. また, 分野適応の手法を用いて追加学習することにより,書き言葉 BERT は話し言葉 BERT に分野適応可能なことがわかった. 本研究で作成した話し言葉 BERT は公開予定である. ## 2 関連研究 BERT は単言語コーパスに対して MLM とNSP と呼ばれる 2 つの目的関数を用いて事前学習を行っている. Devlin ら [1] は事前学習した BERT に対して,最終的に解きたいタスクで fine-tuning を行うことで高い精度が得られることを報告している.入力のある単語 $w_{i}$ に対して,いくつかの Transformer Encoder 層を重ね, 最終的に得られた $h_{w_{i}}$ を BERT の単語単位の出力として使用している。また,文頭に [CLS] を入れ, 対応する出力 $h_{[C L S]}$ を文単位の出力として使用している。私たちの知る限り,日本語では Wikipedia で事前学習したモデル²), SNS で学習したモデル3),ビジネス記事で学習したモデル ${ }^{4)}$, 様々な Webテキストで学習したモデル5) が存在している.本研究は,これらの書き言葉データではなく, 発話  表 1 CSJ 5-gram LM に対する PPL の書き起こしデータで BERT の事前学習を行った. Tenney ら [4] は BERT の前半の層,つまり 12 層の場合は 1-6 層が統語的な構造を,後半の層が意味的な情報を扱っていることを報告している。一方で, Jawahar ら [5] や Hewitt and Manning [6] は BERT 12 層の内,それぞれ 8-9 層と 6-9 層が統語的な特徴を捉えていると報告している. 本研究では,書き言葉と話し言葉の差は統語的な側面に存在すると考えた. 上記の先行研究を踏まえ,統語的な特徴を捉えている層のみを追加学習することで話し言葉に向けたBERT の作成を試みた. Gururangan ら [7] は BERT の派生モデルである RoBERTa [8] の分野適応のため, domain-adaptive pretraining (DAPT) と task-adaptive pretraining (TAPT) を提案した. DAPT は事前学習された RoBERTaに対して,解きたいタスクが属している分野のラべルなしデータを用いて追加で事前学習を行う手法である. TAPT は事前学習された RoBERTa に対して,解きたいタスクのラベルは使用せず,テキストデータのみを用いて追加で事前学習を行う手法である. 本研究は, 話し言葉 BERT 作成に向けて TAPT とDAPTを用いた。 ## 3 話し言葉 BERT の学習 ## 3.1 Layer-wise Pretraining 本研究では書き言葉と話し言葉の差が統語に存在するという仮説のもと,BERT の学習を行った.具体的には,BERT の一部の層が統語的な学習を行っていることを踏まえて, 既存の 12 層の書き言葉 BERT の一部の層のみに対して,CSJを用いた MLM と NSP の追加学習 (layer-wise) を行った. 先行研究 $[4,5,6]$ を参考に, 本研究では 1-6 層のみを学習した場合 (layer-wise ${ }_{[1-6]}$ ) と 8-9 層のみを学習した場合 (layer-wise ${ }_{[8-9]}$ ) と 6-9 層のみを学習した場合(layer-wise ${ }_{[6-9]}$ )を実験している. ## 3.2 DAPT/TAPT Pretraining 本研究では TAPT と DAPTを用いて,書き言葉で学習された BERTを話し言葉に分野適応する。表 2 データサイズ TAPT については,CSJを用いて評価を行うことから,CSJ のラベルなしデータを用いた MLM と NSP の追加学習を書き言葉 BERT に対して行っている. 本研究は DAPT に向けて,CSJ 以外の発話の書き起こしデータとして国会議事録6)を用意し,MLM と NSP の追加学習を行っている. 事前実験として,国会議事録は本当に CSJ に近しい分野なのかを確認した. 具体的には CSJ データから 5-gram 言語モデル(LM)を作成,この LM を元に国会議事録のパー プレキシティ(PPL)を計測した。また比較として CSJ LM に対する Wikipedia の PPL も計測している. この比較の際,国会議事録と Wikipedia のデータサイズはほとんど同じになるように調整している.表 1 が Out-of-Vocabulary(OOV)を含んだ場合,含まない場合の PPLである.この結果から,少なくとも Wikipedia と比べると国会議事録の方が CSJ に LM の観点では近しいことがわかる。 ## 4 実験 本研究では,書き言葉 BERT に対して layer-wise または DAPT/TAPT を用いた話し言葉への分野適応を行った後に,話し言葉検証タスクを行った. ## 4.1 実験設定 本研究では書き言葉 BERT として Wikipedia で学習された BERT ${ }^{7}$ (Wikipedia BERT)を使用した。また,CSJコアデータを評価タスクに,コアデータと非コアデータ全てを BERT の追加学習に使用した. データサイズを表 2 に示す。単語分割は $\left.\mathrm{MeCab}^{8}\right)$ と WordPiece ${ }^{9 )}$ [9]を用いている. layer-wise の学習は,CSJ 全てを用い,バッチサイズ 8 で $90 \mathrm{~K}$ ステップ行っている. この時の最大文長は 512 としている. 詳細は付録 A. 1 に記載した。 DAPT には国会議事録を使用している。DAPT は  DAPT/TAPT については,TAPT512 が最も高い精度だった. TAPT512 に比べると DAPT512 の学習は精度が低いが, Wikipedia BERT と比べると高い結果であることがわかる. 重要文抽出話し言葉の応用的なタスクの 1 つとして,重要文抽出を行う.CSJには各文ごとに重要文かどうかの 2 值のアノテーションが振られている. 入力 $x$ が 1 講演で, $x$ 内の各文頭に [CLS]トー クンを付与し, $h_{[C L S]}$ に対して重要文かどうかの 2 值分類を推定する。本研究では Liu and Lapata [13] の BERTを利用した抽出型要約モデルを重要文分類に利用している。この検証タスクは 5 分割交差検証を用いており,評価は重要文かどうかについての 2 値分類について,重要文ラベルに対する Precision, Recall,F-measure を用いている. 実験結果を表 3 に示す。係り受け解析や文境界推定の結果と違い, 重要文抽出においては全ての手法が Wikipedia BERT より高い結果とはならなかった. layer-wise については layer-wise $_{[\text {all] }}$ と layer-wise ${ }_{[6-9]}$ は Wikipedia BERT より高い結果になっているが,他の一部の層のみを学習したモデルは低い結果となっている。また, layer-wise ${ }_{[a l l]}$ が layer-wise 内で最も高い精度であることから,重要文抽出では一部の層のみを学習する手法は効果が薄いことがわかる. DAPT/TAPT については,係り受け解析や文境界推定の結果と異なり,DAPT512 は TAPT512 より精度が高い結果となった. また, 最も精度が高かったのは DAPT128-TAPT512だった. 一方で, DAPT512-TAPT512 は, Wikipedia BERT よりも低い結果となっている. これらの結果から, 重要文抽出においてはDAPT と TAPTを組み合わせる手法は有効ではあるが,最大文長のパラメータによって結果が大きく変わることがわかる. また,TAPT512 については,学習量が足らないと考え,TAPT の学習ステップを $20 K$ ではなく, $80 \mathrm{~K} ま$ で $20 \mathrm{~K}$ 刻みで行った。詳細な結果は付録 Bに示し,表 3 では最も高かった TAPT 60K ステップの結果を記載している。この結果から分かる通り,TAPT512 について,学習量を増やすことでWikipedia BERT より高い結果となっている. ## 5 考察 文境界推定は単語の活用,特に終止形を当てる必要があると考えられ,統語を捉える必要があるタスクであると考えられる。この文境界推定や係り受け解析に対しては一部の層のみを学習することの有効性が確認できた. 特に, 前半の層のみを学習した場合は全ての層を学習するより高い精度を出している。一方で,文の意味を捉える必要があるタスクである,重要文抽出では一部の層のみを学習するアプローチは効果が薄い。これは,一部の層のみを学習するアプローチは統語的な情報は捉えることができるが,意味的な面ではうまく捉えることができていないからだと考えられる.仮に,Teeny ら [4] の主張の通り,前半の層が統語を,後半の層が意味的な情報を扱っていると考えた場合,後半の層をうまく学習することができれば重要文抽出でも精度が向上すると考えられる。 係り受け解析や文境界推定ではDAPTよりは TAPT の方が効果があったが,重要文抽出では DAPT の方が有効であり,TAPT は学習量を増やすことで DAPT と TAPT を組み合わせたものと同じくらいの結果となった. これらの結果から,統語を捉える必要があるタスクは TAPT だけでも十分ではあるが,意味を捉える必要があるタスクだと TAPT はより多く学習を行わなければいけないことがわかる.一方で,DAPT と TAPTを組み合わせることでどのタスクでも精度向上が見込める。これは,DAPT と TAPT を連続して行うことで話し言葉分野の様々なデータを学習に使用し,タスクに対して頑健なモデルができるからではないかと考える。 ## 6 おわりに 本研究では,話し言葉 BERT 作成に向けて,一部の層のみの学習と分野適応の 2 つの手法を用いた. また,CSJ から係り受け解析,文境界推定,重要文抽出といった BERT を用いた 3 つの評価タスクを設計した.実験の結果,BERT の一部の層のみを学習する手法は統語的なタスクに有効であることがわかり,簡単な分野適応手法で話し言葉モデルを作成できることがわかった。作成したモデルはそれぞれ日本語話し言葉部分学習 BERT, 日本語話し言葉分野適応 BERT として公開予定である。 ## 謝辞 この研究は, 国立国語研究所との共同研究で行ったものです. 国立国語研究所の浅原正幸様,前川喜久雄様,小磯花絵様には有益な助言をいただき,岡照晃様には研究環境管理などのご支援賜りました。 この場を借りて深く御礼申し上げます。 ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, $¥$ L ukaszKaiser, Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, 第 30巻, pp. 5998-6008. Curran Associates, Inc., 2017. [3]Kikuo Maekawa. Corpus of spontaneous japanese: Its design and evaluation. In ISCA \& IEEE Workshop on Spontaneous Speech Processing and Recognition, 2003. [4]Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT rediscovers the classical NLP pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4593-4601, Florence, Italy, July 2019. Association for Computational Linguistics. [5]Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. [6]John Hewitt and Christopher D. Manning. A structural probe for finding syntax in word representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7]Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8342-8360, Online, July 2020. Association for Computational Linguistics. [8]Y. Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, M. Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, Vol. abs/1907.11692, , 2019. [9]Mike Schuster and Kaisuke Nakajima. Japanese and korean voice search. In 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5149-5152. IEEE, 2012. [10]Zhiyong Wu, Yun Chen, Ben Kao, and Qun Liu. Perturbed masking: Parameter-free probing for analyzing and interpreting BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4166-4176, Online, July 2020. Association for Computational Linguistics. [11]Dan Klein and Christopher Manning. Corpus-based induction of syntactic structure: Models of dependency and constituency. In Proceedings of the 42nd Annual Meeting of the Association for Computational Linguistics (ACL-04), pp. 478-485, Barcelona, Spain, July 2004. [12]Roy Schwartz, Omri Abend, Roi Reichart, and Ari Rappoport. Neutralizing linguistically problematic annotations in unsupervised dependency parsing evaluation. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 663-672, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [13]Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3730-3740, Hong Kong, China, November 2019. Association for Computational Linguistics. ## A 詳細な実験設定 ## A. 1 layer-wise の詳細な実験設定 layer-wise のハイパーパラメータを表 4 に示す. ## A. 2 DAPT/TAPT の詳細な実験設定 DAPT/TAPT のハイパーパラメータを表 5 に示す. ## B TAPT の学習量を増やした際の重要文抽出の結果 TAPT のみの学習ステップ数が $\{20 \mathrm{~K}, 40 \mathrm{~K}, 60 \mathrm{~K}, 80 \mathrm{~K}\}$ の時のモデルを重要文抽出に使用した結果を表 6 に示す. 表 6 TAPT の学習量を蓋した際の重要文抽出結果
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-18.pdf
# 学術論文における引用文脈を用いた文献の推薦 生駒流季 名古屋大学大学院情報学研究科 ikoma. tomokieh.mbox.nagoya-u.ac.jp } 松原茂樹 名古屋大学情報連携推進本部 matubara@nagoya-u.jp ## 1 はじめに 学術論文では文献が引用されるが,引用される文献には, ・文献の著者が自身の研究において参考にした概念やアイデアを提案した文献 ・研究の過程において利用したデータやツールなどの研究資源に関する文献 - 自身の研究に関連のある先行研究(関連研究) に関する文献 などがある,参考文献の探索は,発表される文献の増加とともに難しくなっており, その支援に向け, 文献推薦システムが提案されている $[1,2,3,4,5,6,7,8]$. これまでに提案された文献推薦システムの多くは,入力として利用者が執筆する論文のタイトルや要旨を受け取り,その論文で引用するのに適した文献を出力として提示する [9]. 本稿では,論文における引用文脈を利用する文献推薦手法を提案する. 引用文脈とは,論文において被引用論文が引用された箇所のテキストを指す. 引用文脈には,引用した論文の著者がその文献を引用した目的や, 自身の研究との関連性についての記述が含まれる. 引用文脈を併用することにより,論文の著者による記述とは異なる観点や,他に引用した文献との関係を考慮した推薦文献の選定が可能となる. 医学系論文を対象とした実験により, 引用文脈を利用することによる推薦性能の向上を確認した. 本稿の 2 章では,本研究において想定する文献推薦の場面設定を説明する. 3 章では,引用文脈を用いることの利点について記す。 4 章では,提案する文献推薦システムの構成について述べる. 5 章では実験の結果を報告する。 ## 2 問題の設定 文献推薦の研究は,推薦システムの利用者が執筆する論文のタイトルや要旨などの情報に対して,その論文において引用するのに適した文献を推薦する研究 $[1,2,3,4]$ と, 論文の本体の一部を入力して, その箇所で引用するのに適した文献を推薦する研究 $[5,6,7,8]$ に大別される. 前者は論文のタイトルと要旨が完成していて本文を執筆中に利用する状況を想定し,後者は本文を執筆した利用者が,その部分の論旨の補強などを目的として文献を探索する状況を想定する。 本研究は前者を前提とする。すなわち,論文の夕イトルと要旨を入力とし,その論文において引用するのに適した文献を出力する。 ## 3 引用文脈とその利用 本章では,引用文脈について説明し,本研究における利用方法を記述する。 ## 3.1 引用文脈 引用した文献における被引用文献の引用文脈とは,引用した文献の本文中における,被引用文献が引用された箇所の記述のことである. 本研究では,被引用文献への引用を示す標識 (引用タグ) を含む段落のテキストを引用文脈と定義する。 図 1 に,引用文脈の一例として,引用した文献 [10] における被引用文献 [11] の引用文脈の一部を示す.この図において,下線を引いた箇所が被引用文献に対応する引用タグである。また,図 2 に,被引用文献の要旨の一部を示す. 引用文脈には,引用した文献の著者がその文献を引用した目的や,自身の研究との関連性など引用した文献の著者にとって重要な情報が記述される. 引用文脈中の記述は,被引用文献の内容のうち,引用した文献において重要な点をまとめたものとして捉えることができる,図 1 に例示した引用文脈では, devastating impact on human health and healthcare systems. Take the example of the 1918 influenza pandemic, famously known as the "Spanish flu." It is estimated that this outbreak killed between 17 and 50 million people worldwide.[3,4] Although the case mortality rate with this virus was estimated to be only $3 \%-5 \%$, the virus was highly infectious and infected more than a third of the 図 1 引用した文献 [10] における文献 [11] の引用文脈 (一部) Abstract Go to: 『 Mortality estimates of the 1918 influenza pandemic vary considerably, and recent estimates have suggested that there were 50 million to 100 million deaths worldwide. We investigated the global mortality burden using an indirect estimation approach and 2 publicly available data sets: the Human Mortality Database (13 countries) and data extracted from the records of the Statistical Abstract for British India. The all-cause Human Mortality Database 図 2 被引用文献 [11] の要旨 (一部) COVID-19 と過去に発生した感染症の状況の比較を目的としてスペイン風邪の記録についての文献を引用した旨が記述されており,引用目的が示されている. 一方,要旨にはその文献の研究の概略や,提案した手法や概念,実施した実験の結果など,文献の著者がその文献において最も重要と考える情報が記述される. 図 2 に例示した文献の要旨は,1918 年に発生したスペイン風邪の当時の拡散状況などについての記録を再考した旨が,研究の概略として記されている. ## 3.2 引用文脈の利用 本研究では,引用文脈を入力論文の要旨と組み合わせて利用する. 先行研究 $[1,2,3,4]$ の文献推薦システムは, 入力論文の要旨と推薦候補文献の要旨を比較するが,推薦候補文献の要旨のみではその文献がどのような目的で,どのような点に着目して引用されたかを考慮した推薦文献の選択ができない. 一方,入力論文の要旨と推薦候補文献の引用文脈を比較することで,要旨には含まれない内容の記述を考慮に加えた推薦候補の選択が可能となる. 図 1 および図 2 に示した例では,引用文脈を利用することにより,被引用文献の記述内容が他の感染症の記録との比較に利用できるという点を考慮した上で,推薦文献として選択することができる. 図 3 提案システムの処理の流れ 図 4 推薦候補選択による文献のベクトル化 ## 4 提案手法 本研究で提案する推薦システムは,推薦文献の候補を絞り込む段階と,推薦候補文献の中から推薦する文献を決定する段階を通して文献を推薦する. 図 3 に処理の流れを示す. ## 4.1 推薦候補の選択 推薦候補選択の段階では,入力論文や文献データベース中の各文献を,タイトルや要旨の出現語の bag-of-words をもとにべクトル化する. 図 4 にその概略を示す. 推薦候補選択モデルはタイトルの出現語を処理するための embeddings と要旨の出現語を処理するための embeddings を学習し,タイトルと要旨のそれぞれについて,出現語の embeddingsの重み付き和を算出してタイトルベクトルと要旨ベクトルを生成し,それらの重み付き和によってその文献をベクトル化する. 推薦候補選択のモデルの学習では,引用関係にある 2 文献のベクトルの $\cos$ 值が高く,引用関係にない 2 文献の $\cos$ 値は低くなるように各 embeddings と各語の重み,タイトルベクトル及び要旨ベクトルの重みを学習する。推薦候補選択モデルは,タイトルと要旨をもとに入力論文をべクトル化し,データベース中の各文献と入力論文のベクトルの $\cos$ 值を算出して, $\cos$ 值の高い上位一定数の文献と,それらによって引用されている文献からなる集合を推薦候補文献として出力する. ## 4.2 推薦文献の決定 推薦文献決定の段階では,各推薦候補文献が入力論文での引用にどの程度適しているかを示す推薦度 図 5 推薦文献決定に用いるモデルの構成 を FeedForward により算出し,推薦度が一定の閾値を上回る文献を推薦文献として出力する. 図 5 にモデルの構成を示す. 本図において, 入力論文は推薦システムに入力された文献のタイトルや要旨を指し,これらは推薦候補選択における入力と同じである。また,推薦候補文献は推薦候補選択で選出された各文献を指す。 文献 [1] で提案された手法は, 以下の各項目を素性値として推薦度を算出し,推薦文献を決定している. - 入力論文と推薦候補文献のタイトルベクトルの $\cos$ 値 - 入力論文と推薦候補文献の要旨ベクトルの $\cos$ 値 - 推薦候補選択モデルで計算された,入力論文・推薦候補文献間の $\cos$ 値 - 推薦候補文献の被引用回数 (FeedForwardへは被引用回数の対数を入力) - 入力論文と推薦候補文献のタイトルに共通して出現する語の重み値の和 - 入力論文と推薦候補文献の要旨に共通して出現する語の重み値の和 本研究の提案手法では,文献 [1] で採用されていた素性項目に加え,以下の各項目を素性として利用する. - 入力論文の要旨ベクトルと,推薦候補文献の引用文脈ベクトルの $\cos$ 值(引用文脈ベクトルは,推薦候補文献の引用文脈を要旨と同様の方法でベクトル化したものとする) - 入力論文の要旨と, 推薦候補文献の引用文脈に共通して出現する語の重み値の和推薦文献決定モデルにおいて用いるタイトル用および要旨用の embedding は,推薦候補選択モデルで用いたものとは共通しない,学習では,タイトル用および要旨用の embeddings と各語の重みに加え, FeedForward 内で用いる各素性値の重みを学習する. ## 5 実験 本章では,文献推薦における引用文脈を利用することの効果を検証することを目的とした実験について記述する。 ## 5.1 データセット 実験には医学系のオープンアクセス文献を集めた PMC Open Access Subset [12]を用いた。約 32 万本の文献を無作為に抽出し, 文献の発行年で学習・開発・テストデータに分割した. 本実験では,2018 年までに発行された文献(約 25 万本)を学習データ, 2019 年に発行された文献(約 4.5 万本)を開発デー タ,2020 年に発行された文献(約 2.5 万本)をテストデータとして用いた. ## 5.2 実験の概要 学習データを用いて,推薦候補選択モデルと,推薦文献決定モデルを,それぞれ 10 エポックで学習した。選択する推薦候補文献の数を 100 とし,テストデータ中の各文献を入力して出力された推薦文献と入力論文において引用されていた文献 (参考文献リスト)を比較して,以下の各指標で性能を評価した. ・適合率: 推薦文献決定モデルによって推薦された文献のうち,参考文献リストにあるものの割合 表 1 実験結果 表 2 閾値の設定による性能の比較 - 再現率: 参考文献リストにある文献のうち,推薦文献決定モデルによって推薦されたものの割合 - $\mathrm{F}$ 値: 適合率と再現率の調和平均 文献 [1] で提案された,引用文脈を用いない文献推薦システムの推薦性能をベースラインとし, 各評価値を比較した. 推薦文献決定における閾値は, ベースラインにおいて最も高い性能が記録された 0.95 と設定した. ## 5.3 実験結果 表 1 亿実験結果を示す. 本研究で提案したシステムはいずれの指標でもべースラインを上回っており,引用文脈を用いることの有用性が示された。 ## 5.4 考察 ## 5.4.1 推薦文献決定における閾値の設定 推薦文献決定で各文献を推薦するか否かを決める閾値と推薦性能の関係を考察するために,閾値の設定を様々に変えて,開発データにおける評価値の変化を観察した.表 2 にその結果を示す。閾値が下がるにつれて推薦される文献数は多くなるため,適合率は下がり再現率は上がっている.F 値では,間値が 0.9 のときに最も高い評価値が記録された. ## 5.4.2 推薦候補選択における引用文脈の利用 本研究の提案手法では, 引用文脈は推薦文献決定でのみ利用するものとしている.その一方で,推薦文献決定だけでなく推薦候補選択でも引用文脈を利表 3 引用文脈の利用方法による性能の比較 用する手法も考えられる,そこで,推薦入力論文の要旨と各候補文献の引用文脈を推薦文献決定時と同様の方法でベクトル化し,両者間の $\cos$ 值を推薦候補選択の素性に追加し, この素性の有無による性能の変化を観察した。 本考察では推薦の閾値を 0.95 に設定し,引用文脈を使用しない,推薦候補選択でのみ用いる,推薦文献決定でのみ用いる (提案手法),両方で用いるの 4 つの条件で,開発データにおける評価値を比較した. その結果を表 3 に示す. 最も高い評価値が記録された条件は,推薦候補選択では引用文脈を用いず,推薦文献決定でのみ利用する条件であった。また,推薦候補選択のみで引用文脈を用いる条件と,両段階で用いる条件で記録された閾値はほぼ同じであった.この結果は, 引用文脈を二重に考慮することの効果は薄いことを示唆する。 ## 6 まとめ 本稿では,各候補文献を引用した他文献における引用文脈を利用して推薦文献を選定する文献推薦システムを提案した。また,医学系論文を対象とした実験により,引用文脈の利用が推薦性能の向上に貢献することを示した。 今後の課題として,引用文脈の取得のより適切な方法について検討することを挙げる。本研究では,引用文脈は一律に引用タグを含む段落と定義した。一方,文献 [13] では,引用を含む段落において,被引用文献の内容に言及した範囲を抜き出す手法が提案されている。このような手法を引用文脈の抽出に適用することで,引用文脈としてより適切な部分のみを用いた文献推薦が可能となると期待される。 ## 参考文献 [1]Chandra Bhagavatula, Sergey Feldman, Russell Power, and Waleed Ammar. Content-based citation recommendation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 238-251. Association for Computational Linguistics, 2018. [2]Dai, Tao, Cai, Xiaoyan, Pan, Shirui, and Yuan, Sheng. Explore semantic topics and author communities for citation recommendation in bipartite bibliographic network. $J \mathrm{Ambi}$ ent Intell Human Comput, Vol. 9, pp. 957-975, 2018. [3] Mu, Dejun, Guo, Lantian, Cai, Xiaoyan, and Hao, Fei. Queryfocused personalized citation recommendation with mutually reinforced ranking. IEEE Access, Vol. 6, pp. 3107-3119, 2018. [4]Guo, Lantian, Cai, Xiaoyan, Hao, Fei, Mu, Dejun, Fang, Changjian, and Yang, Libin. Exploiting fine-grained coauthorship for personalized citation recommendation. IEEE Access, Vol. 5, pp. 12714-12725, 2017. [5]Yang, Libin, Zheng, Yu, Cai, Xiaoyan, Dai, Hang, Mu, Dejun, Guo, Lantian, and Dai, Tao. A LSTM based model for personalized context-aware citation recommendation. IEEE Access, Vol. 6, pp. 59618-59627, 2018. [6]Jialong Han, Yan Song, Wayne Xin Zhao, Shuming Shi, and Haisong Zhang. hyperdoc2vec: Distributed representations of hypertext documents. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2384-2394, 2018. [7]Travis Ebesu and Yi Fang. Neural citation network for context-aware citation recommendation. Association for Computing Machinery, 2017. [8]Daniel Duma and Ewan Klein. Citation resolution: A method for evaluating context-based citation recommendation systems. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 358-363, 2014. [9]M.Färber, A. Jatowt. Citation recommendation: approaches and datasets. Int J Digit Libr, Vol. 21, pp. 375-405, 2020. [10]Khan, G., Sheek-Hussein, M., Al Suwaidi, A. R., Idris, K., and Abu-Zidan, F. M. (2020). Novel coronavirus pandemic: A global health threat. Turkish journal of emergency medicine, 20(2), pp. 55- 62. [11]Peter Spreeuwenberg, Madelon Kroneman, John Paget. Reassessing the global mortality burden of the 1918 influenza pandemic. American Journal of Epidemiology, Volume 187, Issue 12, 2018, pp. 2561- 2567. [12]PMC Open Access Subset. https://www.ncbi.nlm.nih.gov/ pmc/tools/openftlist/. [13]Xinyu Xing, Xiaosheng Fan, and Xiaojun Wan. Automatic generation of citation texts in scholarly papers: A pilot study. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6181-6190. Association for Computational Linguistics, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-19.pdf
# BERT-based Bi-Ranker による文脈を考慮した引用論文推薦 杉本海人† $\dagger$ 東京大学理学部情報科学科 kaito_sugimoto@is.s.u-tokyo.ac.jp } 相澤 彰子乵 ‡国立情報学研究所 aizawa@nii.ac.jp ## 1 はじめに 学術論文の総数は昨今急速に増大しており [1],引用すべき論文を見つけることが困難になりつつある.この問題に対処するべく,引用論文推薦システム (citation recommendation system; 以下,論文推薦システム)に関する研究が進められてきた.これは入力として何らかのテキストを与えたときに,その内容を裏付けるような論文を出力するというもので, Google Scholar ${ }^{1 )}$ のようなキーワードベースの論文検索システムよりも精度の高い推薦が期待される. 論文推薦に対するアプローチは,大域的な論文推薦と局所的な論文推薦の 2 種類に大別される [2].前者はある論文の大域的な情報,すなわち本文や要旨全体などを入力とするのに対し,後者は引用文脈と呼ばれる一文から数文程度の短い単語列を入力とする.後者は特に,文脈を考慮した論文推薦とも呼ばれる. 表 1 に例を示す(引用元論文の出典は [3],引用先論文の出典は [4]). 近年,他の自然言語処理のタスクと同様,ニュー ラルネットワークが論文推薦の研究においても広く用いられるようになっている. しかしながら 2 節で述べるように, BERT [5]のような Transformer ベー スの言語モデルは十分には活用されていない. そこで本研究では BERT-based Bi-Ranker と呼ばれるモデルを,文脈を考慮した論文推薦において用いる。このモデルでは,クエリの引用文脈と推薦する候補の論文の文章の双方を独立に BERT で埋め込み,候補 表 1 文脈を考慮した論文推薦における入力・出力例 Instead of using the poly-encoder as a trade-off between cross-encoder and bi-encoder, we propose to 入力 train a bi-encoder model with knowledge distillation (Buciluundefined et al., 2006; [*]) from a crossencoder model to further improve the bi-encoder's performances. 出力 Distilling the knowledge in a neural network (Hinton et al., 2015) 1) https://scholar.google.com/ の論文をコサイン類似度でランク付けする.同種のモデルは既にエンティティリンキングや対話行為予測などのタスクで効果が確認されている $[3,6]$. 2 種類のデータセットを用いた評価実験により,提案手法が近年のニューラルベースの手法よりも推薦精度が高いことを確認した.また,大域的な情報を追加情報として用いるモデルの有効性も合わせて検証した。 ## 2 関連研究 文脈を考慮した論文推薦手法は $\mathrm{He}$ ら [7] によって提案された [2]. Huang ら [8] は Word2Vec [9]のような 2 層のネットワークを構築し, 引用文脈内の単語の埋め込みと引用先論文の埋め込みを同時に取得することで,それらを用いた論文推薦が既存のニューラルネットワークを用いない手法よりも効果的であることを示した. 以降,より質の高い埋め込みを得る研究 $[10,11,12]$ や,入力の引用文脈から出力の論文までをネットワークで end-to-end に結びつける研究 [13] などが進められてきた。 論文推薦においても BERT [5] を用いた先行研究は存在するが,改良の余地がある。Jeong ら [14] は BERT と GCN [15] を用いて引用文脈の埋め込みを得ることで,LSTM ベースの既存手法 [11] に対してスコアの向上を確認したが,この研究では候補の論文のテキストを活用していない. 一方, Cohan ら [16] は,BERT ベースの論文の埋め込みが様々な論文関連のタスクにおいて有効であることを示したが,この手法では引用文脈を入力対象としていないため,文脈を考慮した論文推薦には対応できない. 2 つ研究は相補的であり, 本研究の提案手法は引用文脈の埋め込みと候補の論文の埋め込みの双方を活用するものと位置づけられる。 ## 3 提案手法 本研究では,文脈を考慮した論文推薦のための BERT-based Bi-Ranker モデルを提案する.このモデ 図 1 モデルの概要図 ルは Context Encoder と Document Encoder の 2 種類の BERT エンコーダからなる.前者は引用文脈をエンコードし,後者は論文の内容をエンコードする. 2 つのエンコーダはともに学術論文テキストで事前学習が行われた SciBERT [17] で初期化し,訓練データによって fine-tuningを行う. ## 3.1 通常モデル モデルの概要を図 1 に示す. 以下の手順にしたがって計算を行う。 (a) クエリの引用文脈 $c$ を Context Encoder を用いてベクトル $\boldsymbol{y}_{\boldsymbol{c}}$ に変換する. (b) 候補の論文 $d$ を Document Encoderを用いてべクトル $\boldsymbol{y}_{\boldsymbol{d}}$ に変換する. (c) スコアをコサイン類似度によって計算する。 $ \operatorname{score}(c, d)=\boldsymbol{y}_{\boldsymbol{c}} \cdot \boldsymbol{y}_{\boldsymbol{d}} $ (a) の詳細について,Context Encoder に入力する引用文脈は,以下のようなトークン列とする。 ## [CLS] letxt [CIT] retxt ここで,lctxt は引用位置の左側の文字列, rctxt は引用位置の右側の文字列を表す. また,[CIT] は引用位置を意味する特殊トークンである. 引用文脈の埋め込み $\boldsymbol{y}_{\boldsymbol{c}}$ は Context Encoder の [CLS]トークンの位置にあたる最後の隠れ層の出力から得る. (b) の詳細について, Document Encoder に入力する論文に関しては,本研究では論文の題目と要旨を入カソースとして用いる. 入力トークン列は [CLS] title [DOC] abstract とする.ここで, title は題目,abstract は要旨を表す. [DOC] は題目と要旨を分ける特殊トークンである.論文の埋め込み $\boldsymbol{y}_{\boldsymbol{d}}$ は前と同様, Document Encoder の [CLS]トークンの位置の出力から得る. モデルの訓練時においては,ある引用文脈と対応する正解ラベルの論文のスコアが,訓練データの同 じバッチ内の他の論文とのスコアよりも高くなるよう学習する. すなわち, 引用文脈と対応する論文の組 $n$ 個 $\left(c_{i}, d_{i}\right)(i=1, \ldots, n)$ からなるバッチ内における損失関数を以下のように定める $[3,18]$. $ L\left(c_{i}, d_{i}\right)=-\operatorname{score}\left(c_{i}, d_{i}\right)+\log \sum_{j=1}^{n} \exp \left(\operatorname{score}\left(c_{i}, d_{j}\right)\right) $ 推論時においては,入力の引用文脈に対して,候補のそれぞれの論文とのスコアを計算し,スコアが上位の論文から順に推薦を行う。 ## 3.2 大域モデル Medić ら [12] は,文脈を考慮した論文推薦において,引用元の論文の題目や要旨のような大域的な情報を用いた大域モデルを提案し,特に引用文脈の長さが短い場合には推薦の精度が向上することを確認した. これに倣い,本研究においても引用元の論文の内容を用いた大域モデルの有効性を検証する. このモデルにおいては,通常モデルと同様に引用文脈の埋め込み $\boldsymbol{y}_{\boldsymbol{c}}$ を得るだけでなく, 引用元の論文の埋め込み $\boldsymbol{y}_{\boldsymbol{g}}$ を Document Encoder を用いて求める. 入力形式は候補論文の埋め込み $\boldsymbol{y}_{\boldsymbol{d}}$ を得る場合と同様である. 引用文脈の埋め込み $\boldsymbol{y}_{\boldsymbol{c}}$ と引用元の論文の埋め込み $\boldsymbol{y}_{\boldsymbol{g}}$ を足し合わせたものを最終的なクエリの埋め込み $\boldsymbol{y}_{\boldsymbol{c}}^{\prime}$ とし,スコアを計算する. その他の訓練方法は通常モデルに揃える。 $ \begin{aligned} \boldsymbol{y}_{\boldsymbol{c}}^{\prime} & =\boldsymbol{y}_{\boldsymbol{c}}+\boldsymbol{y}_{\boldsymbol{g}} \\ \operatorname{score}(c, d) & =\boldsymbol{y}_{\boldsymbol{c}}^{\prime} \cdot \boldsymbol{y}_{\boldsymbol{d}} \end{aligned} $ ## 4 実験 ## 4.1 データセット ## 4.1.1 ACL-ARC ACL-ARC は自然言語処理分野の論文を収録したデータセットである [19]. 本研究では [12] の実験設定に従い,ACL-200 と ACL-600の 2 種類のサブセットを用いる.前者は引用文脈として引用位置の前後 600 文字ずつを,後者は 200 文字ずつを抽出したものである。訓練データ,検証データ,テストデータのサイズはそれぞれ約 $30 \mathrm{~K} , 9 \mathrm{~K} , 10 \mathrm{~K}$ となっている. また,予測候補の論文の総数は約 $20 K$ である. ## 4.1.2 RefSeer RefSeer は Web 上に存在する様々な分野の学術記事からなるデータセットである [8]. 訓練データ,検証データ,テストデータのサイズはそれぞれ約 3.5M,125K,127K となっている. また,予測候補の論文の総数は約 $625 \mathrm{~K}$ である. ## 4.2 ベースライン ## 4.2.1 NCN Ebesu ら [13] は NCN (Neural Citation Network) というモデルを提案した. これは Attention 機構を備えた Encoder-Decoder モデルであり, 引用文脈,引用元の論文の著者名, 引用先の論文の著者名の埋め込みを連結したものを Encoder 側, 引用先の論文の題目の埋め込みを Decoder 側に与えて学習が行われる. Ebesu らはこのモデルを RefSeer データセットにおいて評価した。具体的には, 入力の文脈に対して,まず BM25 [20] で上位 2,048 本の論文を候補として取得した上で,それらの候補を NCNを用いて Re-ranking した. なお,BM25 の時点で正解ラベルの論文が得られなかった場合は, Re-ranking の候補に正解ラベルを加えている. ## 4.2.2 SemCon, SemEnh Medić ら [12] は, 文脈を考慮した論文推薦システムのための Semantic module と Bibliographic module を考案した. Semantic module は論文や引用文脈の内容を捕捉するのに対し, Bibliographic module は論文のメタ情報(引用数等)を考慮する.本研究では内容による推薦に焦点を置くため,Semantic module のみを比較の対象とする。 Semantic module を用いたモデルは特に SemCon と SemEnh の 2 種類に分かれる. SemCon は引用文脈と候補の引用先論文の内容それぞれの埋め込みを Bi-LSTMを用いて取得し,コサイン類似度を計算する. SemEnhは大域的な情報を用いて SemConを拡張したモデルである. 具体的には,引用元論文の埋め込みを別に計算し, 引用文脈の埋め込みと足し合わせてから,コサイン類似度を計算する。 NCN の場合と同様に, Medić らはこれらのモデルを用いて, RefSeer データセットに対しては BM25 で得られた上位 2,048 本の論文を Re-ranking し, ACL-ARC データセットに対しては上位 2,000 本の論文を Re-ranking した. $\mathrm{NCN}$ の場合と同様,BM25 の時点で正解ラベルの論文が得られなかった場合は, Re-ranking の候補に正解ラベルを加えている. ## 4.3 評価手法 先行研究と同様に, 提案した論文推薦システムが既存の論文の引用をどの程度予測できるかを測定する. 本研究では, 先行研究に揃えて, 推薦された予測候補の上位 10 件に対して Recall と MRR (Mean Reciprocal Rank) [21] を計算し,ベースラインの手法と比較する。 ## 4.4 結果 表 2 は,提案手法のスコアを既存研究で報告された値と比較したものである,比較の上では,既存研究が BM25 で得られた候補にもとづいて値を報告していることから,本研究でもこれに従った(候補は [12] と同一のものを用いた). 全てのデータセットにおいて,提案手法がベースラインの手法の値を上 表 4 BERT-based Bi-Ranker モデルによる ACL-200 データセットの予測例(太字が正解ラベルの論文を表す) クエリの引用元論文 Language Identification using Classifier Ensembles ...be some redundancy in the large number of character ngram features and removing these might increase the diversity and thus accuracy of the ensemble using the feature analysis methodology outlined by [*] we analyzed the feature interactions using the training and development set this methodology uses yule's qcoefficient statistic which can be a useful measure of pairwise dependence between two cla... クエリの引用文脈 BERT-based Bi-Ranker(大域モデル) BERT-based Bi-Ranker(通常モデル) 1. Language Identification using Classifier Ensembles 1. A Two-level Classifier for Discriminating Similar Languages 2. Measuring Feature Diversity in Native Language Identification 2. A Two-level Classifier for Discriminating Similar Languages 3. Proceedings of the ACL Workshop on Feature Engineering for Machine Learning in Natural Language Processing 3. Using Maximum Entropy Models to Discriminate between Similar Languages and Varieties 4. A Simple Baseline for Discriminating Similar Languages 5. Feature Space Selection and Combination for Native Language Identification 4. A Simple Baseline for Discriminating Similar Languages 5. The NRC System for Discriminating Similar Languages クエリの引用元論文 A Computational Approach for Generating Toulmin Model Argumentation ...tween the claim and data one of the aspects of the toulmin model in terms of determining stance クエリの引用文脈previous work has utilized attack or support claims in user comments as a method for determining stance [*] inspired by hashimoto et al 6's excitatory and inhibitory templates in this work we similarly compose a manual list of promotexy and suppressxy relations and rely on these relations coupled with pos... BERT-based Bi-Ranker(通常モデル) BERT-based Bi-Ranker(大域モデル) 1. Cats Rule and Dogs Drool!: Classifying Stance in Online Debate 2. Get out the vote: Determining support or opposition from Congressional floor-debate transcripts 3. Recognizing Stances in Ideological On-Line Debates 4. Why are You Taking this Stance? Identifying and Classifying Reasons in Ideological Debates 1. A Computational Approach for Generating Toulmin Model 5. Stance Classification in Online Debates by Recognizing Users' Intentions Argumentation ## 2. Back up your Stance: Recognizing Arguments in Online Discussions 3. Contrasting Opposing Views of News Articles on Contentious Issues 4. Combining Textual Entailment and Argumentation Theory for Supporting Online Debates Interactions 5. Stance Classification in Online Debates by Recognizing Users' Intentions 回っている. また, ACL-600 と ACL-200の結果を比較すると,引用文脈の長さが短い ACL-200 において大域モデルが効果的であることがわかる. 提案手法の予測例を表 4 に示す. 上段の例においては,通常モデルの予測候補の論文は "Feature" という単語を含むものが多い. これはクエリの引用文脈の "feature analysis" という部分をより考慮に入れた結果であると考えられる。これに対し,下段の例においては,大域モデルの予測候補においてのみ "Arguments" や "Argumentation" という単語が見られる.これは,クエリの論文が Argumentation に関する論文であるという大域的な情報が予測に反映されていると考えられる。 論文推薦システムを実用化する上では,推薦候補の論文の要旨をテキストとして抽出するのが困難なケースも考えられる。 そこで,提案手法において,論文の要旨を用いず,題目のみを埋め込んだ場合の性能を調べた. 加えて,両方のエンコーダをSciBERT ではなく通常の事前学習済み BERT [5] で初期化した場合における性能を調べた. 結果を表 3 に示す。題目のみを情報として用いた場合でも, [12] で報告された BM25 のベースラインのスコアを大きく上回っていることが分かる. また,BERT で初期化した場合,題目のみの場合と同程度スコアが下がってしまうことから,学術論文テキストによる事前学習の重要性が示唆される. ## 5 おわりに 本研究では,引用文脈と論文の文章の双方を BERT で埋め込んだモデルを提案し,文脈を考慮した論文推薦タスクにおいて効果を検証した. 今後の課題として,論文の要旨以外の内容(手法や実験結果など)の埋め込みが推薦に役立つかどうかの検証や,既知の引用先の論文がある場合にそれを入力として有効活用する手法の検討などが挙げられる. ## 謝辞 本研究は,JST CREST-20218985 の支援を受けたものである. ## 参考文献 [1]Mark Ware and Michael Mabe. The stm report: An overview of scientific and scholarly journal publishing. 2015. [2]Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, No. 4, p. 375-405, Aug 2020. [3]Ledell Wu, Fabio Petroni, Martin Josifoski, Sebastian Riedel, and Luke Zettlemoyer. Scalable zero-shot entity linking with dense entity retrieval. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6397-6407, Online, November 2020. Association for Computational Linguistics. [4]Geoffrey Hinton, Oriol Vinyals, and Jeffrey Dean. Distilling the knowledge in a neural network. In NIPS Deep Learning and Representation Learning Workshop, 2015. [5]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6]Jack Urbanek, Angela Fan, Siddharth Karamcheti, Saachi Jain, Samuel Humeau, Emily Dinan, Tim Rocktäschel, Douwe Kiela, Arthur Szlam, and Jason Weston. Learning to speak and act in a fantasy text adventure game. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 673-683, Hong Kong, China, November 2019. Association for Computational Linguistics. [7]Qi He, Jian Pei, Daniel Kifer, Prasenjit Mitra, and Lee Giles. Context-aware citation recommendation. In Proceedings of the 19th international conference on World wide web, pp. 421-430, 2010. [8]Wenyi Huang, Zhaohui Wu, Chen Liang, Prasenjit Mitra, and $\mathrm{C}$ Giles. A neural probabilistic model for context based citation recommendation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 29, 2015. [9]Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [10]Jialong Han, Yan Song, Wayne Xin Zhao, Shuming Shi, and Haisong Zhang. hyperdoc2vec: Distributed representations of hypertext documents. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2384-2394, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11]L. Yang, Y. Zheng, X. Cai, H. Dai, D. Mu, L. Guo, and T. Dai. A lstm based model for personalized context-aware citation recommendation. IEEE Access, Vol. 6, pp. 59618-59627, 2018. [12]Zoran Medić and Jan Snajder. Improved local citation rec- ommendation based on context enhanced with global information. In Proceedings of the First Workshop on Scholarly Document Processing, pp. 97-103, Online, November 2020. Association for Computational Linguistics. [13]Travis Ebesu and Yi Fang. Neural citation network for context-aware citation recommendation. In Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '17, p. 1093-1096, New York, NY, USA, 2017. Association for Computing Machinery. [14]Chanwoo Jeong, Sion Jang, Eunjeong L. Park, and Sungchul Choi. A context-aware citation recommendation model with BERT and graph convolutional networks. Scientometrics, Vol. 124, No. 3, pp. 1907-1922, 2020. [15]Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. CoRR, Vol. abs/1609.02907, , 2016. [16]Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, and Daniel Weld. SPECTER: Document-level representation learning using citation-informed transformers. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2270-2282, Online, July 2020. Association for Computational Linguistics. [17]Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [18]Samuel Humeau, Kurt Shuster, Marie-Anne Lachaux, and Jason Weston. Poly-encoders: Architectures and pre-training strategies for fast and accurate multi-sentence scoring. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [19]Steven Bird, Robert Dale, Bonnie Dorr, Bryan Gibson, Mark Joseph, Min-Yen Kan, Dongwon Lee, Brett Powley, Dragomir Radev, and Yee Fan Tan. The ACL Anthology reference corpus: A reference dataset for bibliographic research in computational linguistics. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [20]Stephen Robertson and Hugo Zaragoza. The probabilistic relevance framework: BM25 and beyond. Now Publishers Inc, 2009. [21]Ellen M. Voorhees. The TREC-8 question answering track report. In Ellen M. Voorhees and Donna K. Harman, editors, Proceedings of The Eighth Text REtrieval Conference, TREC 1999, Gaithersburg, Maryland, USA, November 17-19, 1999, Vol. 500-246 of NIST Special Publication. National Institute of Standards and Technology (NIST), 1999.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-1.pdf
# 日本語の読みやすさに対する 情報量に基づいた統一的な解釈 栗林樹生 ${ }^{1,2}$ 大関洋平 3,4 伊藤拓海 ${ }^{1,2}$ 吉田遼 3 浅原正幸 5 乾健太郎 1,4 1 東北大学 ${ }^{2}$ Langsmith 株式会社 3 東京大学 4 理化学研究所 5 国立国語研究所 \{kuribayashi, t-ito, inui\}@ecei.tohoku.ac.jp \{oseki, yoshiryo0617\}@g.ecc.u-tokyo.ac.jp, masayu-a@ninjal.ac.jp ## 1 はじめに 読みやすい文章とはどのようなものだろうか?文章を書いて情報伝達をする全てのヒトに関わる問いである. 本研究では,「読む」というヒトの情報処理のモデルについてモデルが何を計算しているかというレベルで理解し,文章の読みやすさについて洞察を得ることを目指す。 ## 1.1 背景 英語では,特に言語モデルによって計算されるサプライザル $(-\log p($ 単語や文| 先行文脈 $))$ が単語や文の逐次的な処理負荷をうまくモデリングできるというコーパス全体の傾向が報告されてきた $[1,2,3,4,5,6,7,8]$. ヒトは続きを予測しながら文章を読んでおり,予想と異なる情報が登場する(サプライザルが高くなる)と処理負荷が高まる(例えば,読み時間が長くなる)というサプライザル理論に基づく $[9,10]$. 一方日本語では,近年読み時間データ(BCCWJ-EyeTrack)が整備され [11], 日本語の逐次的な読みやすさについて探索的な分析が行われてきた $[11,12,13,14]$. 例えば「係り元が先行文脈に多く存在する文節が読みやすい」 [11],「聞き手にとって既知と想定される情報は読みやすい」といった記述がされてきた [14]. これらの記述は, ヒトの文処理モデル解明の手がかりとなるだけでなく,読みやすい文章を書く上での知見としても役立つ可能性がある.しかしながら,これらの個別の記述間の共通点については定かでなく, 新たな傾向の探索は依然困難である。 ## 1.2 仮説と検証結果 サプライザル理論に基づき,BCCWJ-EyeTrack において記述的研究で得られてきた日本語読み時間に 図 1 ヒトの読み時間と言語モデルから得られるサプライザルの傾向の比較の概要. 関する傾向が,サプライザルが大きいところで読みにくくなるという傾向として統一的に解釈できるという仮説を立てる。この仮説が支持されれば,読み時間に対する個別の観察間に繋がりが生まれ,例えば観測の難しいヒトに現れる現象(読み時間の変化など)ではなく文章に付与されたサプライザルを分析することで,読みやすさの傾向に関する新たな記述に繋がる可能性がある。このような記述は,サプライザルが大きいところで読みにくくなるといった実際のライティングに適用しにくい知見を噛み砕いたものとして有益であると考える。また「なぜある言語現象が読み時間に影響を与えるのか」といったヒトに対する現象個別の科学的な問いが「なぜサプライザルがヒトの読み時間に影響を与えるのか」というヒトに対する一般的な問いと「なぜその言語現象がコーパス上の確率に影響を与えるのか」というデータで検証しやすい問いに整理される。さらに, サプライザル理論については英語コーパス上での検証が中心であり,日本語における本理論の一般性についても示唆を与える. 加えて,工学的応用として言語モデルを文章の逐次的な読みやすさの評価に用いる妥当性の検証にも繋がる。 Transformer 自己回帰言語モデルを用いた実験より,少なくとも BCCWJ-EyeTrack 上で報告されてきた統語から談話レベルに及ぶ読み時間の様々な 傾向についてはサプライザル上でも概ね再現された. すなわち,個別の記述が情報量の観点から統一的に解釈できることが支持された。またヒトは先を予想しながら文章を読んでおり,予想できない情報が現れると読み負荷が大きくなるというサプライザル理論の言語横断的な一般性も支持された. 最後に読み時間とサプライザルの相違点について分析し, 特に PPL の低い言語モデルで,ヒトの読み時間で得られていた特定の観察が極端なバイアスとして観測される傾向を報告する. 本研究で BCCWJ-EyeTrack に対して付与したサプライザルデータ(BCCWJ-UniSeqLM)は公開する1). ## 2 実験設定 ## 2.1 言語モデル 文章レベルの left-to-right 言語モデルを訓練した. 入力はサブワードに分割した2)。読み時間は文節ごとに付与されており, 長さ $N$ の文 $w_{1: N}=\left(w_{1}, w_{2}, \cdots, w_{N}\right)$ 内の長さ $T$ の文節 $\left.b=w_{k: k+T}(1<k \leq k+T \leq N)^{3}\right)$ について,文節を構成するサブワードの同時確率のサプライザル $-\log _{2} p\left(w_{k}, \cdots, w_{k+T} \mid w_{1}, \cdots, w_{k-1}\right)=$ - $\sum_{i=k}^{k+T} \log _{2} p\left(w_{i} \mid w_{1}, \cdots, w_{i-1}\right)$ を計算した。八イパーパラメータや学習データ量に関しては予備分析を行い,PPLが最も低い設定(LMPPL)と,サプライザルによってヒトの読み時間を最もうまくモデリングできた設定(LMPSY)の 2 種類を実験に用いる4)。予備分析については付録に記載する。 ## 2.2 サプライザルのモデリング それぞれの言語モデルを用いて BCCWJ-EyeTrack 上の各文節にサプライザルを付与し, 既存研究 $[12,13,14]$ でヒトの読み時間に対して行われていた分析を,被説明変数を読み時間からサプライザルに置き換えて実施した,具体的には,既存研究に従い下式の右辺に分析ごとに興味の対象となる説明変数(例えば統語範疇ラベルなど)を加えてサプライ 1) https://github.com/kuribayashi4/BCCWJ-UniSeqLM 2) mecab [15] と unidic で国語研短単位に分割した後,バイト対符号化を用いてさらに分割した(character coverage $=0.9995$, vocab size $=100000)$. 3) BOSトークン $\left(w_{1}\right)$ の存在から,文節は $w_{2}$ 以降から始まる. 4) 学習データは新聞記事と日本語 Wikipedia(1.4G サブワー ド)から成り, $\mathrm{LM}_{\mathrm{PPL}}$ の学習にはすべてのデータを, $\mathrm{LM}_{\mathrm{PSY}}$ では 1/10 の学習データを使った。また, L $M_{P P L}$ に対して LM $M_{P S Y}$ は $1 / 100$ のアップデート回数で訓練され,およそ $1 / 10$ のパラメータ数である. ザルをモデリングし,回帰係数の傾向を分析した: $ \begin{aligned} \text { surprisal } & \sim \text { length }+ \text { BOS }+ \text { EOS }+ \text { pre_EOS }+ \text { sentN } \\ & + \text { tokenN }+(1 \mid \text { article })+(1 \mid \text { seed }) . \end{aligned} $ 各言語モデルについて異なるシードで 3 つのモデルを学習し, 記事 ID と言語モデルのシードを変量因子として扱った. 回帰モデルには一般化線形混合モデルを用いた. スペースの都合上,実験ではサプライザルをモデリングした結果の回帰係数の符号および,係数が 0 であるという対立仮説に対する $\mathrm{p}$ 値 ( $\mathrm{p} \mathrm{p}<0.1$; ${ }^{* *} \mathrm{p}<0.05 ;{ }^{* * *} \mathrm{p}<0.01 )$ を報告する. また分析に応じ $\tau$ ,係数同士の大小関係も補助的に報告する5)(結果の表中で背景色を灰色にして記載する)。またヒトの読み時間についても,式 1 の被説明変数を読み時間に置き換えて同様の検証を行い,サプライザルをモデリングした場合と係数の傾向を比較する.読み時間としては,視線走査法により計測された対数注視時間(first pass time, FPT)と自己ペース読文法により計測された対数読み時間(SELF)を用いた $[11]^{6)}$.いずれの分析においても,読み時間が 0 であるか 3 標準偏差を超えるデータポイントはあらかじめ除外し, 被説明変数を標準化した. 最終的に 13,148 のデータポイントを用いた. ## 3 実験 ## 3.1 統語・意味範疇 コーパス中の各文節には,統語範疇ラベル(体,用,相の類など)と意味範疇ラベル(関係,主体,活動,生産物,自然の部門など)が付与されており, (i)読み時間が体の類>相の類>用の類となる傾向, (ii)関係の部門の読み時間が短くなる傾向が報告されている [12]. 既存研究に従い各文節の統語・意味範疇のラベルを式 1 の右辺に固定因子として追加し,サプライザル・読み時間をモデリングした。 ヒトのFPT, SELF と, LM $\mathrm{LPPL}_{\mathrm{PPL}}, \mathrm{LM}_{\mathrm{PSY}}$ から得られたサプライザルについて,回帰係数の一部を表 1 に示す. 例えば「用(v.s. 体)」の行ではヒトと言語モデルいずれにおいても符号が負であることより,体の類よりも用の類に分類される文節の方がサプライ , \mathrm{B}$ に対する回帰係数の推定量の差 $\left|\alpha_{A}-\alpha_{B}\right|$ が, $\alpha_{A}$ と $\alpha_{B}$ のいずれにおいても $90 \%(*), 95 \%(* *)$, $99 \%$ (***) 信頼区間を超えるかで判断する 6)式 1 の被説明変数を読み時間に置き換え,スクリーン上の表示位置などの説明変数を加えた.詳細は付録に記述する。 } 表 1 読み時間・サプライザルと,意味・統語範疇の関係. 係数の差については背景色を灰色にする。 } & 用 (vs. 体) & $-* * *$ & $-^{* * *}$ & $-* * *$ & $-* * *$ \\ 表 2 読み時間・サプライザルと anti-locality 効果. ザルが小さく,読み時間も短くなる傾向にあることが分かる.統語範疇においては,読み時間とサプライザルいずれも体の類>相の類>用の類の順に小さくなるという一貫した傾向がみられた。意味範疇においては,関係の部門の読み時間が短くなるという読み時間の傾向が $\mathrm{LM}_{\mathrm{PSY}}$ で概ね再現された。 ## 3.2 統語構造 日本語をはじめとする主辞後置言語では,先行文脈に係り元が多く存在するほど読み時間が短くなる anti-locality 効果が報告されている [16,17]. 例えば下の例では,「買った」の係り元は 2 つ存在し「バッグを」については 1 つ存在するため,「買った」の方が読み時間が短くなるという効果である。 (2) 式 1 の右辺に,先行文脈に存在する文節の係り元数を固定因子として加え,サプライザルと読み時間をモデリングした. 表 2 より, 係り元数に対する係数が有意に負であることから,読み時間とサプライザルいずれにおいても係り元数が多くなるほど処理負荷が低くなるという anti-locality 効果が確認された.本結果はサプライザル理論が anti-locality 効果を説明できるとする予想 [10] を支持する. ## 3.3 節境界 英語では節末で読み時間が長くなる wrap-up 効果が報告されているが $[18,19]$, 日本語では wrap-up 効果が生じないという報告がされてきた [13]. 式1の表 3 読み時間・サプライザルと wrap-up 効果. 右辺に,文節が節末に存在するかという固定因子を加え,サプライザルと読み時間をモデリングした. 表 3 より,節末に配置される文節はサプライザルが小さいため読みやすく,読み時間においても wrap-up 効果が生じないことが示唆された. さらに読み時間では,節の種類によって節末の読み時間の傾向が異なることが報告されてきた [13].例えば,(i)内容節(節内の述語と係り先の語とに述語項関係がない)よりも,補足語修飾節(節内の述語と係り先の語とに述語項関係がある)の方が節末の読み時間が短い,(ii)引用節よりも名詞節の方が読み時間が短いといった傾向が観察されている. 式 1 の右辺に,文節が属する節の種類を固定因子として加えモデリングした結果を表 3 に示す。傾向(i), (ii) についてサプライザルでも同様の傾向が観察され,節末ごとのサプライザルの大小の傾向の違いに起因する読み時間の差であることが示唆された。 ## 3.4 情報構造 情報構造と日本語の読み時間を照らし合わせた分析が行われてきた [20,14]. 既存研究 [14] に従い,情報構造に直接的・間接的に関わる,(i)書き手の立場で考える情報の新旧(情報状態),(ii)読み手の立場も含めて考える共有性,(iii)指示対象を聞き手が同定できるかを示す定性,(iv)対象が生きているかを示す有生性の 4 つの観点で分析を行う.英語など冠詞が存在する言語と比べて日本語では情報の性質の表出が少なく, 文章に表出されない情報構造によるバイアスがサプライザルに現れるかは,言語モデルの分析という観点でも興味深い. 既存研究に従い,式 1 の右辺に情報状態,共有性,定性,有生性に対応する固定因子を同時に加え,サプライザルと読み時間をモデリングした。表 5 より,SELF や既存研究で示されていた(i)新情報より旧情報の方が読みやすい(情報状態における新情報>旧情報),(ii)聞き手と共有できている情報のほうが読みやすい(共有性における非共有>想定可能> 表 5 読み時間・サプライザルと情報構造の関係. 係数の差については背景色を灰色にする。 PPL - 係り元数 : is_Im 新情報: is_Im $\checkmark$ 旧情報: is_Im 非共有: is_Im 太想定可能 : is_Im 共有: is_Im図 2 言語モデルの PPLと,その言語モデルから得られたサプライザルを用いてサブグループ解析をした際の各交互作用項に対する回帰係数との関係. 共有),(iii)定名詞句よりも不定名詞句の方が読みやすい,(iv)有生名詞句よりも無生名詞句の方が読みやすいといった傾向が,特に L $M_{P P L}$ で示された. ## 4 読み時間とサプライザルの相違点 最後に,ある因子がサプライザルと読み時間に与える影響の差について交互作用の解析を通して調査する.具体的には,サプライザルと読み時間を言語モデルとヒトという異なるグループから得られた 「読み負荷」という同一の変数とみなし,読み負荷に対して回帰を行う. 本研究では, 既存研究で典型的に分析される FPTを用いた。なお,読み時間とサプライザルはそれぞれあらかじめ平均 0 ,分散 1 に標準化している.説明変数として「言語モデルから得られた読み負荷であるか」(is_lm)という二値素性(言語モデルであれば 1 ,ヒトであれば 0 )を追加し, さらに式 1 の右辺や分析の対象となる各固定因子それぞれについてis_lm との交互作用項を追加す る. ある因子 A と is_lm の交互作用項に対する係数 $\left(\alpha_{\text {A:is_lm }}\right)$ は,因子 A が被説明変数に与える影響が,言語モデルグループとヒトグループでどう異なるかを意味する.例えば $\alpha_{\text {A*is_lm }}$ が有意に 0 より大きい場合は,ヒトよりも言語モデルに対して因子 A の与える影響が,因子 A の値が大きくなることで読み負荷が増大する方向に大きいことを表す.3節の分析で用いたそれぞれの固定因子について,is_lm との交互作用を分析した。また訓練設定が異なる 111 の言語モデルについてそれぞれ分析を行い,言語モデルの PPL と交互作用の関係を見る(詳細は付録へ). 特に顕著な傾向が見られた(i)係り元数(antilocality 効果),(ii)情報状態,(iii)共有性に対応する固定因子について,is_lm との交互作用項の傾向を報告する(図 2),各プロットが,各言語モデルを用いた実験結果(交互作用項の係数)に対応し,横軸が実験で用いた言語モデルの PPL,縦軸が係数の值である。係り元数,情報状態,共有性いずれにおいても PPL が低くなるほど係数が 0 から離れていき,読み時間において観察されていた傾向が過剩に示される方向(anti-localityを支持,新情報>旧情報,非共有>想定可能>共有)にヒトから逸脱していく傾向が見られた. サプライザルで観察されたバイアスからヒトの読み負荷に対して洞察を得る場合,バイアスの大きさについてはサプライザル上で誇張されている可能性があるが,バイアスの方向(ある現象が処理負荷を増加させるか低下させるか)については洞察を得られる可能性が示唆された。 ## 5 おわりに 日本語の読み時間について探索的な分析から記述されてきた傾向について,情報量に基づいて統一的に解釈できるという仮説を立てた.統語から談話レベルの観点において,読み時間とサプライザルの間に様々な共通点が観察され,仮説が支持された。より大規模なデータに基づいた調査 ${ }^{7)}$ や,脳活動デー タなどを用いた調査も視野に入れたい. 謝辞. 本研究は JSPS 科研費 JP20J22697, 19H04990 の助成を受けたものです.また,国立国語研究所共同研究プロジェクト「大規模コーパスを利用した言語処理の計算心理言語学的研究」の支援を受けたものです. 7)特に述語項構造・共参照との関係については,データポイントの少なさから今後の検証課題とした. ## 参考文献 [1]Stefan L. Frank and Rens Bod. Insensitivity of the Human Sentence-Processing System to Hierarchical Structure. Journal of Psychological Science, Vol. 22, No. 6, pp. 829-834, 2011. [2]Victoria Fossum and Roger Levy. Sequential vs. Hierarchical Syntactic Models of Human Incremental Sentence Processing. In Proceedings of CMCL, pp. 61-69, Montréal, Canada, 6 2012. Association for Computational Linguistics. [3]Tal Linzen. What can linguistics and deep learning contribute to each other? Journal of Language, Vol. 95, No. 1, pp. 99-108, 2019. [4]Adam Goodkind and Klinton Bicknell. Predictive power of word surprisal for reading times is a linear function of language model quality. In Proceedings of CMCL2018, pp. 10-18, 2018. [5]Christoph Aurnhammer and Stefan Frank. Comparing gated and simple recurrent neural network architectures as models of human sentence processing. In Proceedings of the 41 st Annual Conference of the Cognitive Science Society, pp. 112-118, 2019. [6]Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian, and Roger Levy. On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior. In Proceedings of $\mathrm{CogSci}$, pp. 1707-1713, 2020. [7]Danny Merkx and Stefan L. Frank. Comparing Transformers and RNNs on predicting human sentence processing data. arXiv preprint arXiv:2005.09471,2020, 2020. [8]Martin Schrimpf, Idan Blank, Greta Tuckute, Carina Kauf, Eghbal A Hosseini, Nancy Kanwisher, Joshua Tenenbaum, and Evelina Fedorenko. The neural architecture of language: Integrative reverseengineering converges on a model for predictive processing. bioRxiv, 2020. [9]John Hale. A Probabilistic Earley Parser as a Psycholinguistic Model. In Proceedings of NAACL, pp. 159-166, 2001. [10]Roger Levy. Expectation-based syntactic comprehension. Journal of Cognition, Vol. 106, No. 3, pp. 11261177,2008 . [11]Masayuki Asahara, Hajime Ono, and Edson T Miyamoto. Reading-Time Annotations for "Balanced Corpus of Contemporary Written Japanese". In Proceedings of COLING, pp. 684-694, 2016. [12]Masayuki Asahara and Sachi Kato. Between Reading Time and Syntactic / Semantic Categories. In Proceedings of IJCNLP, pp. 404-412, 2017. [13]Masayuki Asahara. Between reading time and clause boundaries in Japanese - wrap-up effect in a head-final language. In Proceedings of PACLIC, pp. 19-27, 2018. [14]Masayuki Asahara. Between Reading Time and the Information Status of Noun Phrases. Natural Language Processing, Vol. 25, No. 5, pp. 527-554, 2018. [15]Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. jp, 2006. [16]Lars Konieczny. Locality and parsing complexity. Journal of Psycholinguistic Research, Vol. 29, No. 6, pp. 627-645, 2000. [17]Shodai Uchida, E Miyamoto, Yuki Hirose, Yuki Kobayashi, and Takane Ito. An ERP study of parsing and memory load in Japanese sentence processing - A comparison between left-corner parsing and the Dependency Locality Theory. Technical report of IEICE. Thought and language, Vol. 114, pp. 101-106, 2014. [18]Marcel A. Just and Patricia A. Carpenter. A theory of reading: From eye fixations to comprehension. Journal of Psychological Review, 1980. [19]Keith Rayner, Gretchen Kambe, and Susan A. Duffy. The Effect of Clause Wrap-Up on Eye Movements during Reading. Quarterly Journal of Experimental Psychology Section A: Human Experimental Psychology, Vol. 53, No. 4, pp. 1061-1080, 2000. [20]Masayuki Asahara. Between reading time and information structure. In Proceedings of PACLIC, pp. 1524, 2017. 表 6 本実験で用いた素性. \\ ## A 素性 本実験で用いた素性を表 6 亿示す.なおヒトに対する読み時間測定の際文末に改行を加えているため,例えば is_first は「文頭である」か「文が長く画面上で改行が生じた際の改行後の文節」で発火する素性である. (is_first, is_last, is_second_last) について,画面上での改行を考慮しない素性が(BOS, EOS, pre_EOS) であり,ヒトの読み時間のモデリングの際には前者を,言語モデルのサプライザルのモデリングの際には後者を用いた。(lineN, segmentN)と(sentN, tokenN)についても,画面上での改行を考慮するかしないかの違いである. 画面呈示順など読み時間測定纪関わる素性は,既存研究でより詳細に記述されている [11]. ## B言語モデルの設定 アーキテクチャ (400M パラメータの) Transformer, $55 \mathrm{M}$ パラメータの Transformer, LSTM), 学習データサイズ (1.4G, 140M, $14 \mathrm{M}$ サブワード) パラメータアップデート回数 $(100 \mathrm{~K}, 10 \mathrm{~K}$, $1 \mathrm{~K} , 0.1 \mathrm{~K} )$ の異なるニューラル言語モデルを学習し, PPLが最も低くなる設定とヒトの読み時間をサプライザルによってうまくモデリングできる設定の二種類を採用した.ヒトの読み時間のモデリングには, 本文の実験と同様にコーパス中の 13,148 デー タポイントを使用し,以下の式によってモデリングした: $ \begin{aligned} \log (\mathrm{RT}) & \sim \text { surprisal + freq + length + prev_freq } \\ & + \text { prev_length }+ \text { is_first }+ \text { is_last } \\ & + \text { is_second_last }+ \text { screenN }+ \text { lineN } \\ & + \text { segmentN }+(1 \mid \text { article })+(1 \mid \text { subj }) . \end{aligned} $ 読み時間データに対する対数尤度で言語モデルの読み時間に対するモデリング能力を評価した。学習率や最適化アルゴリズムなどその他のパラメータについては fairseq のデフォルト設定を使用した. ## C 回帰式 各実験における回帰式を記述する。 ## C. 1 統語範疇, 意味範疇 (3.1 節) $ \begin{aligned} \text { surprisal } & \sim \text { WLSPLUWA + WLSPLUWB + length }+ \text { BOS + EOS + pre_EOS } \\ & + \text { sentN + tokenN + anti_locality }+(1 \mid \text { article }) \\ & +(1 \mid \text { seed }) . \\ \log (\mathrm{RT}) & \sim \text { WLSPLUWA }+ \text { WLSPLUWB + length }+ \text { is_first } \\ & + \text { is_last }+ \text { is_second_last }+ \text { screenN }+ \text { lineN }+ \text { segmentN } \\ & + \text { anti_locality }+(1 \mid \text { article })+(1 \mid \text { subj }) . \end{aligned} $ ## C. 2 統語構造(3.2 節) surprisal $\sim$ anti_locality + length + BOS + EOS + pre_EOS + sentN $ + \text { tokenN }+(1 \mid \text { article })+(1 \mid \text { seed }) . $ $\log (\mathrm{RT}) \sim$ anti_locality + length + is_first + is_last + is_second_last + screenN + lineN + segment $N$ $+(1 \mid$ article $)+(1 \mid$ subj $)$ ## C. 3 節境界(3.3 節) wrap-up 効果については以下の式でモデリングし,いずれの節 (CLMHST,CLMMST,CLMFUT,CLMHRT)でも回帰係数が有意に負であった. surprisal $\sim$ CLMHST + CLMMST + CLMFUT + CLMHRT + length + BOS + EOS + pre_EOS + sentN + tokenN + anti_locality + (1|article $)$ $+(1 \mid$ seed $)$ $\log (\mathrm{RT}) \sim$ CLMHST + CLMMST + CLMFUT + CLMHRT + length + is_first + is_last + is_second_last + screenN + lineN + segmentN + anti_locality + (1|article) + (1|subj) . 節の種類による違いについては, 以下の式でモデリングした: surprisal $\sim$ CLMHSL + CLMMSL + CLMFUL + CLMHRL + length + BOS + EOS + pre_EOS + sentN + tokenN + anti_locality + (1|article $)$ $+(1 \mid$ seed $)$ $\log (\mathrm{RT}) \sim$ CLMHSL + CLMMSL + CLMFUL + CLMHRL + length + is_first + is_last + is_second_last + screenN + lineN + segmentN + anti_locality + (1|article $)+(1 \mid$ subj $)$. ## C. 4 情報構造(3.4 節) surprisal $\sim$ infostatus + definiteness + animacy + commonness $ \begin{aligned} & + \text { length }+ \text { BOS }+ \text { EOS }+ \text { pre_EOS }+ \text { sentN }+ \text { tokenN } \\ & + \text { anti_locality }+(1 \mid \text { article })+(1 \mid \text { seed }) . \end{aligned} $ $\log (\mathrm{RT}) \sim$ infostatus + definiteness + animacy + commonness + length + is_first + is_last + is_second_last + screenN + lineN + segmentN + anti_locality + (1|article $)+(1 \mid$ subj $)$. ## C. 5 交互作用の解析 reading_effort $\sim$ freq*is_lm + length $* i s_{-} l m+$ prev_freq*is_lm $ \begin{aligned} & + \text { prev_length*is_lm }+ \text { BOS*is_lm }+ \text { EOS*is_lm } \\ & + \text { pre_EOS*is_lm + sentN*is_lm + tokenN*is_lm } \\ & \text { +anti_locality*is_lm + (1|article })+(1 \mid \text { subj_seed }) \end{aligned} $ $A * B$ は $A , B$ という固定因子と,A と B の交互作用 $A: B$ を加えることを意味する。分析の対象とする各素性 Z について,上式の説明変数に Z*is_lmを加え,Z:is_lm に対する回帰係数を分析した.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-20.pdf
# 英米文学の原書書評に基づく日本語訳本の売上予測 DENGJUNFU 掛谷英紀 筑波大学システム情報工学研究科 s1920870@u.tsukuba.ac.jp kake@iit.tsukuba.ac.jp ## 1 はじめに 日本の出版業界の市場規模が 1997 年から年々縮小し、「出版不況」といわれる長期低迷の状況に陥つている[1]。その影響を受け、書店と印刷業全体が右肩下がりになり [2]、印税収入に依存する出版翻訳業者も厳しい境地に晒されている[3]。 出版翻訳には、海外で出版された書籍の情報を収集する「原書探し」や、作品の内容を要約し編集会議で吟味する作業などが必要であった[4]。海外書評サイトでの書籍概要とユーザーレビューなどの既存情報を活用し、日本で売れるパターンとそうでないパターンを把握できれば、刊行までの時間が大幅に短縮し、出版のリスクも低減すると予想される。 近年、書評を対象とした分類研究が盛んに行われている。例えば、橋本ら[5]が最大エントロピー法を用いたイデオロギー分析や、掛谷ら[6]がアマゾンのユーザーレビューに基づいた先見性の分析、樋口ら [7]が書評を用いた政治的見解の異なる人物像の特徵分析などがある。 本研究では既存の分類モデルを参考し、和訳された英米文学作品の売れ行きを予測するシステムの実現を目的とする。具体的には、紀伊国屋書店 [8]で掲載された英米文学作品を対象に、海外最大級の書評サイト GoodReads[9]の情報から対象作品が日本で売れるかどうかを分類するモデルを構築する。その上、売れる・売れない作品の特徴を分析する。 ## 2 提案システム 提案システムの全体構成を図 1 に示す。まず、紀伊国屋の英米文学ジャンルから和訳本のリストを抽出し、研究対象の選定基準に準ずるかどうかを判断する。対象外の作品は除外し、対象となる作品については GoodReads から原書の情報を抽出する。 原書の情報は発売日、レビュー数など基本情報(構造的データ)と概要、レビューのテキストデータがあるが、概要のみある作品とレビューのみある作品 があるため、実験対象を概要群とレビュー群、2つの実験群に分けて、複数のモデルを用いて売れ行きの分類実験を行う。 図 1 提案システムの構成 実験結果より、平均精度のよい実験群の上位モデルを選出し、最適ハイパーパラメーターを探して再実験する。最後は売れ行きのよい作品とそうでない作品の特徴的語彙を抽出し分析する流れである。 ## 2.1 分析対象の選定基準とラベリング 分析対象として、1)海外で出版され、その後和訳された文学作品、2)名作の再版、新訳本ではないこと、3)日本で発売されてから一年以上経った作品の三つの基準に全て合致するものを選んだ。名作については、Wikipedia の「もっとも多く翻訳された著作 [11]、2つのリストに記載される作品と定義する。上述した基準に基づき、紀伊国屋書店から 2018 年 12 月前に出版された 900 作品を抽出し、GoodReads から基本情報と概要のある原書 756 点、レビューのある原書 621 点(和訳本が出版される前のもの)を収集した。 売れ行きの良しあしをラベリングする際に、本の実売部数を基準とするのが一番理想的だが、そのデ一夕は出版社しか分からず、一般人として入手するのが極めて困難だと考えられる[12]。そのため本研究は日本最大級の書評サイト BookMater[13]から収集した「登録者数」を「注目度」と定義する(登録者数は発売年数の増加に比例する可能性がため両者間の相関関係を調べたが、 0.17 しかない)。それを基準として、注目度分布の上位 3 割を売れる・下位 3 割を売れない、のようにラベリングした。 ## 2.2 書籍関連情報の相関分析 原書の基本情報となるレビュー数、出版されたバ ージョン数、平均評価 (星)、ページ数とレビュー数も売れ行きと関連する可能性があるため、各実験群の基本情報と登録者数との相関関係を分析した。その結果、売れ行きの基準となる登録者数との相関係数が最も高いのは原書のレビュー数であるが、概要群 0.30 、レビュー群 0.33 しかないため、基本情報のみで和訳後の売れ行きを予測するのは難しいと考えられる。 ## 2.3 機械学習の手法 2.1 の基準でラベリングしたサンプルは、概要群 452 点(売れる 225、売れない 227 、平均単語数 72 、標準偏差 137)、レビュー群 332 点(売れる 181、売れない 151、平均単語数 3894、標準偏差 6323)である (レビュー者数が 5 以下の作品は除外)。実験は多種類の学習器と組み合わせる形で行った (図2)。 図 2 実験手法の詳細 具体的には、まずテキストから記号と符号を除去し、spacy[14]で形態素解析を行う。各種素性の深層格を抽出し、全素性、名詞、動詞、形容詞と副詞の 5 つのパターンに分けて実験する。選択した素性を BoW(Bag of Words)とGloVe[15]で作成された分散表現でベクトル化する。単語の重要度および稀少性の影響も調べたいため、埋め込む際に tf-idf 法 (または idf 法のみ) で処理したパターンとそうでないパター ンに分けて行う。分散表現の場合は、テキストにある全素性の分散表現の平均を取り、1作品あたり 300 次元の特徴量ベクトルを作成する。文書 $d$ の分散表現ベクトル $\boldsymbol{v}(d)$ は $ \boldsymbol{v}(d)=\frac{1}{n} \sum_{i}^{n} \boldsymbol{w}\left(w_{i}\right) $ と表される。tf-idfを重みとしてつける場合は、原田ら[16]の手法に基づき $ \boldsymbol{u}(d)=\frac{1}{n} \sum_{i}^{n} t f i d f\left(w_{i}\right) \cdot \boldsymbol{w}\left(w_{i}\right) $ を用いる。実験は、ナイーブベイズ、サポートベクターマシン(SVM)、ExtraTrees (ランダム木)、LightGBM、多層パーセプトロン(MLP)の 5 種類の学習器と指定素性のテキストベクトルを図 2 のように組み合わせて行う。できるだけ早く相性の良い組み合わせを選出するため、すべての学習器はデフォルトのパラメ ータで学習した。 ## 3 実験 ## 3.1 クロスバリデーションの結果 各学習法のクロスバリデーションの結果を表 1 と表 2 に示す。ここでリストアップしたのは、それぞれの素性で実験する際に、精度の一番良いモデルである。概要群について、全素性を使い、BoW で化して Naive Bayes で行った実験は最高 $70.7 \%$ の精度を得た。他の素性のみ使った場合も $60 \%$ 以上の結果が得られた。 表 1 概要群の実験結果 $(\%)$ 表 2 レビュー群の実験結果 $(\%)$ レビュー群については tfidf と SVM の組み合わせが一番良く、名詞のみ使った場合 $82.5 \%$ の精度に達した。他の素性のみ使った場合の精度も概要群より高く、70\%以上の結果が得られた。結果から原書の海外レビューから和訳本の売れ行きを予測する可能性があると考えられ、売れ行きを左右する特徴は名詞、形容詞、副詞などに潜んでいることがわかる。 ## 3.2 上位モデルのパラメータ最適化 概要群とレビュー群の分類実験で精度の良かった 素性と分類器の組み合わせに対して、パラメータ最適化を行った。具体的な手法を図 3 に示す。 図 3 パラメータ最適化の手法 まずすべてのデータを学習用 $75 \%$ 、テスト用 $25 \%$ の割合で分割し、学習用データのみ使って探索する。次に 7 分割のクロスバリデーションで平均精度の一番良いパラメータの組み合わせを選出する。最後は選出したパラメータで設定し、探索用のすべてのデ一タを学習してテストデータで検証する。上記の手法で実験した結果、ペア 10 のモデルのパラメータ (n_estimators $=245$, max_depth $=16$, max_feature $=$ 17)で設定した場合、 $85.4 \% の \mathrm{fl}$ 値が得られました。表 3 と図 4 は実験の混同行列と信頼度曲線である。 表 3 混同行列 図 4 ROC 曲線と PR 曲線(AUC 値 0.94/0.92) 売れる・売れない作品のいずれに対しても、 $85 \%$以上の適合率と再現率が得られた。また、ROC 曲線から見ても、偽陽性率が低い時でも高い真陽性率が見られるため、一般的に言うと、信頼性の高いモデルと考えられる。 ## 3.3 登録者数を予測する実験 以上の実験でにおいて、翻訳小説の売れ行きを最高 $85.4 \%$ で判断することができるが、どれほど売れる・売れないのかという問題がある。より有益な予測を行うために、多層ニューラルネットワークを用いて、GoodReads のレビューに基づいて BookMeter の登録者数を直接予測することを試みた。実験に用 いたネットワークは、入力/出力層と 3 層の隠れユニットで構成されている。各隠れユニットは全結合層、 バッチ正則化層、dropout 層で接続され、最終的に ReLU 関数で活性化する。各層のニューロン数と係数を図 5 に示す。 図 5 ニューラルネットワークの構成 Optimizer は RMSprop で、損失関数は平均二乗誤差 (MSE)、評価関数は平均絶対誤差 (MAE) を用いた。全 epoch 数は 500、バッチサイズ 40 で学習し、学習率 $\operatorname{lr}(t)$ は式 3 のように、100 エポック以後徐々に減衰させる。なお、 early stopping は 40 エポックに設定する。 実験は 3.2 で高い精度に達するidf 付き Glove 分散表現のベクトルを使う。登録者数の分布が偏っているため、対数変換の手法で前処理する。具体的な手順は図 6 のように、まず 562 個のデータを訓練デー タとテストデータに分割し、その比率を 7:3 とする。次に訓練データを 7 分割のクロスバリデーションで学習する。その都度、訓練されたモデルを用いてテストデータを予測する。最後は、 7 の予測值の平均値を計算し、最終の予測結果としてモデルを評価する。 図 6 予測値を出す手順 提案モデルは、GoodReads のレビュー数を用いて、線が原点を通る条件のもとで作成した線形回帰モデルと比較し、ニューラルネットワークと線形回帰モデルの予測値から与えられる RMSE、MAE、相関係数を用いて評価する。結果は表 4 に示す。 提案モデルの予測値と実際の登録者数との相関は 0.50 であり、線形回帰で与えられた値より $31 \%$ 高い結果が得られた。提案モデルと線形回帰による真値と予測値の比較を図 7 に示す (登録者数が対数の形でプロットされている)。 表 4 予測結果の評価 図 7 予測値の真値 図に示されているように、ニューラルネットワー クの方が線形回帰より良い予測値を与えていることが分かる。 ## 5 考察 売れる・売れないとラベリングされた作品にどのような特徵があるかを調べるため、レビューテキストの単語を出現確率 $ \rho_{j}^{(i)}=\frac{c_{j}^{(i)}}{\sum_{k=0}^{1} c_{k}^{(i)}} $ の順にソートした。ここでの $c_{j}^{(i)}$ は、単語iがクラス $i$ での出現回数で、 $c_{j}^{(i)} \geq n$ を満たすように計算する。 $n$ は名詞の語彙数を 100 とした時、各素性の語彙数に比例する。つまり出現頻度に偏りの大きく、しかも一定回数以上出現した単語のみリストアップした。 これらを表 5 に示す。 結果から刺激性の強いサスペンス(killer, detective)系、スリラー(thriller)系及び奇想天外 (fantasy, quirky) のものと、 $\mathrm{SF}$ (dystopia, universe, postapocalyptic)作品が特に愛読されていることがわかる。 一方、英米文化の色濃い作品(church, slavery)や、詩(poems)、生活感(allergies, students, coffee)の強い作品は人気がないように見える。国や地域、軍隊など言葉が出たが、元のテキストから確認したところ、欧米の戦争や歴史、移民などを語る物語ということ がわかるが、それらも日本文化に距離があるため売れ行きが芳ばしくないと考えられる。 表 5 レビュー群の実験結果 $(\%)$ ## 6 おわりに 本研究は、海外書評サイトの英語レビューに基づき、和訳本の売れ行きを予測するシステムを考案し、売れる・売れないものの二値分類実験を行った。実験は概要群とレビュー群に分け、それぞれ全素性、名詞、動詞、形容詞と副詞で分類した。結果として概要群では最高 $70 \%$ 、レビュー群では最高 $82 \%$ の精度が得られた。パラメータ調整後にレビュー群では最高 $85.4 \%$ の精度が得られ、信頼度曲線から見てこのモデルは信頼できると考えられる。 次に、レビュー群のみを対象とし、登録者数の値を予測するモデルを提案した。ニューラルネットワ ークを用いた場合、予測値と真値の相関係数は $50 \%$ で、線形回帰より 31 ポイント高い結果が得られた。 さらに、売れる作品と売れない作品のレビューに頻出する単語を調查し、刺激性の強い作品、非現実・ $\mathrm{SF}$ の要素のある作品が特に日本で売れており、英米文化の色濃い作品やポエムは人気ではないことが明らかになった。実験対象が日本と海外での売れ行きの差異を調べ、両方でも売れる作品とそうでない作品、そして日本・海外のみ売れる作品はそれぞれ違う特徴を持っていることが明らかになった。 ## 参考文献 1. 出版科学研究所, “日本の出版販売額”, 出版指標年報 2020 年版, 2020. 2. 日本印刷産業連合会, “印刷産業の出荷高 - 事業所数・従業員数の推移”,マーケティング・データ・ ブック 2020, Vol.18, 2020. 3. 山岡洋一,“翻訳の過去・現在・未来”,「翻訳通信」 100 号記念セミナー, 2010. 4. 株式会社トランネット, “出版翻訳とは”, https://www.trannet.co.jp/about-publish-translation.html, 2020. 5. 橋本ら,“Web 上のレビュー記事のイデオロギー 分析とその応用”, 言語処理学会第 16 回年次大会, pp.740-743, 2010. 6. 掛谷ら, “書籍のレビューに基づく先見性のある人物の特㣦分析”,言語処理学会第 22 回年次大会, pp.1149-1152, 2016. 7. 樋口ら,“国会会議録と書評を用いた政治的見解が異なる人物像の分析”, 2019 年度日本選挙学会, 2019. 8. 紀伊国屋書店,“英米文学ジャンル”, www.kinokuniya.co.jp/f/dsd-101001015025001-- 9. GoodReads, www.goodreads.com. 10. Wikipedia, “もつとも多く翻訳された著作物”, 2020 . 11. Norwegian Book Clubs, "The top 100 books of all time", 2002. 12.上原龍一,“本の実売部数の調べ方”, www.uehararyuichi.com/jitsubai-299 13. BookMeter, www.bookmeter.com 14. spacy, www.spacy.io/ 15. Jeffrey Pennington et al, "GloVe: Global Vectors for Word Representation”, Proceedings of EMNLP 2014, pp.1532-1543, 2014. 16. 原田ら,“単語の分散表現および if-idf 法を用いた自動ようやくシステム” , ARG WI2, No.9, pp49$50,2016$.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-21.pdf
# マルチラベル分類による材料推薦モデル 深澤 祐援 原島 純 クックパッド株式会社 \{yusuke-fukasawa, jun-harashima\}@cookpad.com 西川荘介 東京大学大学院情報理工学系研究科 sosuke-nishikawa@nii.ac.jp ## 1 はじめに クックパッドなどの料理レシピサービスでは, ユーザがレシピを投稿できる.レシピを投稿する画面を図 1 に示す.まずタイトルを記入し,作り方, コツ・ポイント,材料の名前とその分量などを入力する。これら全ての情報をユーザが入力するのは手間がかかる. 特にサイズの小さいスマートフォン上で多くの情報を入力する作業はより負荷が高まる. そうしたユーザに対して,レシピ投稿時に必要な情報を補完できれば,レシピ投稿のハードルを下げられる. 本研究ではこうした背景を元に,レシピタイトルを大力としてそのレシピに必要な材料を推薦する夕スクを定義する。 そしてそのタスクを解くモデルを提案する. クックパッドに存在するレシピのタイトルと材料のデータを用いて,提案したモデルの性能を報告する。また提案手法を用いた材料推薦機能をリリースし,オンライン上でモデルの評価を行った結果も合わせて示す. ## 2 関連研究 料理に関連したドメインにおける推薦問題では, レシピの推薦が着目されることが多い. Khan らはレシピに使われている材料を入力として,栄養を考慮に入れたアンサンブルベースのトピックモデリングによるレシピ推薦を提案している [1]. Gao らは料理の画像から材料を推定し, siamese-network を構築してレシピを推薦している [2]. 本研究が対象とする材料推薦の先行研究は,レシピの推薦を対象とした研究と比べるとそれほど多くない. Park らは 2 つの材料を入力として,その組み合わせがペアリングとして適しているかのスコアを 図1 クックパッドアプリ (Android) からレシピを投稿する際の入力画面 (2021-01-04 時点) 出力するモデルを提案している.しかしレシピとの関連性は着目されていない [3]. 材料に関連した先行研究としては,Harashima らによる Seq2Seqを用いた材料名の正規化が挙げられる [4]. また Yamaguchi らは Character-CNN と Bidirectional GRU を組み合わせた系列ラベリングモデルを構築し,材料情報の中で材料に相当しない部分 (コメントなど)を検出している [5]. ニューラルネットワークが発展している昨今では出力部分を柔軟に定義できるようになり,情報推薦をマルチラベル分類とみなしてアプローチする例も見られる. Zhang らは論文のレビュアーを推薦する 図 2 提案手法の概要 問題をマルチラベル分類問題として定式化している [6]. Chen らは一枚の画像を入力とし, その画像中に存在する複数の物体のラベルを推薦するタスクを対象としたモデルを提案している [7]. マルチラベル分類の性能を向上させる方法として,事前に学習させたラベル情報を活用するアプローチが存在する. Rousu らはラベルの階層構造を考慮したアプローチを提案している [8]. Huang らは ImageNet の各予測対象クラスについて事前に埋め込み表現を学習させ,それを活用して未知クラスが含まれる画像分類問題への転移学習にアプローチしている [9]. ## 3 提案手法 本研究では,レシピのタイトルを入力として適切な材料を推薦するタスクに取り組む.学習データにはレシピタイトルとその材料が紐付いており,このデータを元に学習したモデルが $k$ 個の材料予測結果を出力する.具体例としては,「鮭とほうれん草の奨油和風パスタ」というレシピタイトルから,そのレシピで使われている「鮭」・「ほうれん草」・「にんにく」・「オリーブオイル」という材料を予測するタスクとなる。 提案手法は図 2 のように表せる. 詳細を以下に示す. 1.レシピタイトルを形態素に分割し,モデルに入力する 2. 各形態素をベクトル表現に変換する 3. 各形態素のベクトル表現の平均を算出し, レシピタイトルのベクトル表現 (300 次元) とする 4. レシピタイトルのベクトル表現を全結合層 (512 $\rightarrow 256 \rightarrow 300$ ) に入力する 5. 出力する材料クラスごとに事前に割り当てたべクトル表現行列との内積を取る 6. 内積を取った値に sigmoid 関数を適用する. 得た値を各材料クラスに対する確信度とする 7. 確信度が高い上位 $k$ 個を推薦結果として出力する 提案手法では Huang ら [9] と同じく, 事前に学習させた材料クラスごとの埋め込み表現を用いる. マルチラベル分類問題では出現する頻度の少ないクラスを予測することが多い. 今回対象とする材料推薦問題でも出現頻度には大きな差がある. 提案手法ではクラスの埋め込み表現を明示的に与えることで, few-shot なクラスであっても適切に推薦できるモデルとなっている. ## 4 実験 提案したモデルの有効性を検証するためにベースラインとの比較実験を行った. ## 4.1 実験設定 本実験ではクックパッドに投稿されたレシピデー タを用いる。レシピデータにはレシピタイトル,詳細文,そのレシピに使われた材料と分量一覧,レシピの手順がユーザによって入力され紐付いている. 本研究ではレシピタイトルを入力とし,そのレシピで用いられた材料名を予測対象として用いる.レシピタイトルは $\mathrm{MeCab}$ (IPA 辞書) [10] を用いて形態素に分割した. 材料名は表記摇れしているものを名寄せするなどの前処理を実施し,約 1100 クラスとなった.使用するデータは,材料が紐付いているレシピを抽出した上でランダムに分割し,学習データ:検証データ:テストデータ $=930,000$件:230,000 件:10,000 件とした. ## 4.2 比較手法 k-NN 材料クラスの予測を行うアーキテクチャとして近傍探索に基づくアプローチ (kNearestNeighbor: k-NN) との比較を行う. k-NNでは, 表 1 材料予測結果の例 & & & 觡,酒,塩,コ \\ タイトルのベクトル表現を獲得するところまでは提案手法と同じである. ベクトル表現を獲得した後,近い値を持つタイトルを持つレシピを $\mathrm{k}$ 個取得する. 取得した $k$ 個のレシピに紐づく材料を集計し,得られた出現数に基づいて上位 5 個の材料を推薦結果として表出する。 提案手法(IE なし) また提案手法について,材料クラスごとのベクトル表現との内積を取らない提案手法 (IngredientEmbedding: IE なし) も比較対象とする. 提案手法を含むこれら手法で用いる分散表現モデルは,予めクックパッドの全レシピデータにおけるタイトル,手順テキストを対象に学習させた fasttext (300 次元のベクトルを学習するように設定しその他パラメータはデフォルトで設定) [11]を用いる。なお, 提案手法 (IEなし), 提案手法は Adam[12] で最適化し,検証データに対する TopKCategoricalAccuracy が最良となるエポックで EarlyStop させたものを評価対象とする。 ## 4.3 評価指標 各手法を評価するため、順序を考慮せず集合を評価する指標と、順序を考慮する指標を使用した. 前者には Precision と Recall、F1、HITS (予測したクラス $k$ 個のうち,いくつが正解したかの絶対数)を使用した。また、後者には MAP と MRR、NDCG を使用した. また,モデルの予測する材料クラスの偏りを見る指標として,全クラス数のうち予測したクラスの重複を排除した数の割合を Coverage と定義し, その值についても確認した。 ## 4.4 実験結果 表 2 に実験結果を示す。推薦されるアイテムの幅広さを示す Coverage が最も高かったのは k-NN であったが,提案手法がそれ以外の全ての指標で最も高い精度を記録した。提案手法についても Converage は 0.6 程度という値から,偏りのある推薦表 2 各評価指標における性能比較 & 提案手法 \\ Recall@5 & 0.38 & 0.48 & $\mathbf{0 . 4 9}$ \\ F1@5 & 0.37 & 0.47 & $\mathbf{0 . 4 8}$ \\ NDCG@5 & 0.43 & 0.54 & $\mathbf{0 . 5 5}$ \\ MAP@5 & 0.30 & 0.41 & $\mathbf{0 . 4 2}$ \\ MRR@5 & 0.71 & 0.83 & $\mathbf{0 . 8 4}$ \\ HITS@5 & 2.01 & 2.56 & $\mathbf{2 . 6 1}$ \\ Coverage & $\mathbf{0 . 7 8}$ & 0.50 & 0.64 \\ 結果でないことが示された. 表 1 に各モデルの出力結果を示す. 1 例目について,k-NN は「真鯛」と「甘塩鮭」が同時に出ている. モデルの性質上,魚系でベクトル表現が近いレシピタイトルを取得した結果,「真鯛」のレシピと 「甘塩鮭」のレシピとが近かったことによるものだと考えられる。 2 例目について, $\mathrm{k}-\mathrm{NN}$ ・提案手法 (IE なし) はいずれも「ディル」が当てられていない. 「ディル詰め」というレシピがそもそもあまり多いものではないため,集計べースのモデルの場合「いわし」や 「オーブン焼き」などのキーワードに出現する材料に引きずられた傾向が見られる。提案手法 (IE なし) については,「しお・こしょう」などといった出現数の多い調味料に引きずられるきらいがあった.これらに対して提案手法は,モデル内に組み込まれた材料クラスのベクトル表現によって,提案手法 (IE なし) と比較すると改善傾向が伺える。 3 例目について,前述したようにマルチラベル分類モデルは出現数の多いクラスに引きずられてしまう.この例ではその傾向が顕著に出ており,上位 5 つの出力結果が調味料ばかりに偏り主材料を出力できていない。これに対して,k-NN は適切に主材料を当てることができている. ## 4.5 オンライン評価と考察 最後に,ここまでオフラインテストで検証したモデルについて,オンライン上で実際にユーザへ推薦 表 3 オンラインでの材料推薦結果 図 3 レシピ投稿画面でユーザに表出した材料推薦の様子 表 4 豆腐を例とした同一系統材料のレシピ出現頻度 結果を表出する検証を行った. 図 3 がユーザへ推薦結果を表出した画面である。 ユーザがレシピタイトルを入力した後, 材料入力の位置までスクロールすると推薦画面が表出する仕様とした. 2020 年 11 月初旬にデプロイしてから 2020 年 12 月末までの期間を対象として,提案手法によって推薦された材料をユーザが一度でも選択した割合の平均を計測したところ,14.97\%となった. 表 3 にユーザに推薦された材料とユーザによって選択された材料の例を示す。上から 2 つの例「超簡単!超時短!生チョコくるみタルト」や「ケンタ味!カリカリのフライドポテト!」のように推薦材料の殆どが選択され,うまく機能しているケースも見られた. 一方で下から 2 つの例「驚きの美味しさ!塩麹とカレーの鶏唐揚げ」や「白身魚の和風レモンマスタードソース」というレシピタイトルについては,主材料である「鶏肉」や「白身魚」を推薦できていないからか,推薦されたいずれの材料も選択されなかった. このことから,調味料などの周辺材料を正しく推薦することよりも主材料を推薦することがユーザにとって重要ではないかと考えられる。 また,改善点として材料ラベル間の共起関係に着目することが挙げられる。具体例として,同一種類の材料が同時に出現する可能性は低いことがわかっている. 表 4 では「もめん豆腐」と「絹ごし豆腐」,及び「高野豆腐」が同じレシピに出現する分布を示している.この表を見るとこれら材料が同時に出現する可能性が低いことがわかる. Chen らの提案手法 [7] では画像中にテニスラケットと人は同時に写っていることが多いといった,物体ラベルに依存関係があることを示している。その関係性をグラフ畳み込みニューラルネットワークで学習させ,その重みを分類時に適用させるモデルを提案している.本タスクにおいても同様に,ラベル間の関係性を考慮するアプローチは有効だと考えられる。 ## 5 結論 本研究ではレシピタイトルを入力として適切な材料を予測するタスクに取り組んだ。またそれを解くモデルとして予め学習した材料クラスのベクトル表現を組み込んだマルチラベル分類モデルを提案した. $\mathrm{k}$ 近傍探索モデルと比較した結果,提案手法のほうがより正確に材料推薦ができること,また全体的に高い精度で材料推薦が可能であることが示された. 今後の展望としては,材料ラベル間の共起関係を考慮すること,調味料などの周辺材料の場合と主材料などの場合とで損失に対する重み付けを調整するといったモデル改善を行っていくことが挙げられる. さらにオンライン上での $\mathrm{AB}$ テストを実施することで実用観点におけるモデルの比較を行うことが課題である. ## 参考文献 [1]Mansura A. Khan, Ellen Rushe, Barry Smyth, and David Coyle. Personalized, health-aware recipe recommendation: An ensemble topic modeling based approach. In Proceedings of the 4th International Workshop on Health Recommender Systems co-located with the 13th ACM Conference on Recommender Systems 2019, 2019. [2]Xiaooyan Gao, Fuli Feng, Xiangnan He, Heyan Huang, Xinyu Guan, Chong Feng, Zhaoyan Ming, and Tat-Seng Chua. Hierarchical attention network for visually-aware food recommendation. IEEE Transactions on Multimedia, 2019. [3]Donghyeon Park, Keonwoo Kim, Yonggyu Park, Jungwoon Shin, and Jaewoo Kang. Kitchenette: Predicting and ranking food ingredient pairings using siamese neural network. In Proceedings of the 28th International Joint Conference on Artificial Intelligence, 2019. [4]Jun Harashima and Yoshiaki Yamada. Two-step validation in character-based ingredient normalization. In Proceedings of the Joint Workshop on Multimedia for Cooking and Eating Activities and Multimedia Assisted Dietary Management, 2018. [5]Yasuhiro Yamaguchi, Shintaro Inuzuka, Makoto Hiramatsu, and Jun Harashima. Non-ingredient detection in usergenerated recipes using the sequence tagging approach. In Proceedings of the 6th Workshop on Noisy User-generated Text, 2020. [6]Dong Zhang, Shu Zhao, Zhen Duan, Jie Chen, Yanping Zhang, and Jie Tang. A multi-label classification method using a hierarchical and transparent representation for paperreviewer recommendation. ACM Transactions on Information Systems, 2020. [7]Z. Chen, X. Wei, P. Wang, and Y. Guo. Multi-label image recognition with graph convolutional networks. In Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019. [8]Juho Rousu, Craig Saunders, Sandor Szedmak, and John Shawe-Taylor. Kernel-based learning of hierarchical multilabel classification models. Journal of Machine Learning Research, 2006. [9]He Huang, Yuan-Wei Chen, W. Tang, Wenhao Zheng, Qingguo Chen, Yao Hu, and Philip S. Yu. Multi-label zero-shot classification by learning to transfer from external knowledge. ArXiv, 2020. [10]工藤拓, 山本薫, 松本裕治. Conditional random fields を用いた日本語形態素解析. 情報処理学会研究報告. NL,自然言語処理研究会報告, 2004. [11]Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, 2017. [12]Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-2.pdf
# 言い誤りの理解過程 ## 一日本語二重目的語構文の意味的整合性判断課題による検討一 \author{ 井出彩音 ${ }^{1}$ 寺尾康 ${ }^{2}$ 木山幸子 ${ }^{3}$ \\ 1 東北大学文学部言語学研究室 2 静岡県立大学国際関係学部国際言語文化学科 \\ 3 東北大学大学院文学研究科言語学研究室 \\ ayane.ide.p5@dc.tohoku.ac.jp teraoy@u-shizuoka-ken.ac.jp skiyama@tohoku.ac.jp } ## 1 はじめに 言い誤りは,文産出の仕組みを知る上で重要な手がかりを持つ. 言い誤りを観察することで,話者が意図した発話と,文産出の過程で何らかの誤作動のあった結果の発話の 2 つを同時に手に入れられ,処理過程の仮説を提案できるからである [1]. 言い誤りは「故意にではない,発話の意図からの冕脱」と定義され, 付加型 - 久落型 - 代用型 - 交換型・混成型・移動型 (表 1) という6 種類のタイプに分類される [2]. また,言い誤りが起こる単位ごとの分類としては,音韻レベル・語彙/形態レベル・語より大きいレベル・統語/文法レベル・文体レベルがあり,それぞれがさらに細かく分けられる。例えば統語/文法レベルでは,助詞・活用・否定・助動詞といった単位が挙げられる. 表 1 言い誤りのタイプ例 言い誤りのレベルに基づいた分類では,助詞レベルの言い誤りにおいて,日本語に特徴的な傾向が見られている [1]. それぞれが持つ機能によって助詞を 3 グループに分類し,「が」「を」「に」「の」を A 類,「から」「へ」を B 類,「も」「ね」などを C 類としてグループ間の言い誤りの傾向を探った結果,同じグループ間の助詞同士で言い誤りの発生が多く,特に「が」や「を」などの限られた助詞同士で言い誤りの発生が多くなることが示された. 言い誤りによる文産出研究に比べ,言い誤りの理解の観点から調査した研究はほぼ皆無である。言い誤りを含む不完全な文を理解するときに,理解しやすい言い誤りとそうでない言い誤りの差異はどのような要因に起因するのか. 本研究では,言い誤りが含まれた文の理解過程を解明することを目的とし,言い誤りを引き出す問いかけに応答する対話の自己ペース読みによる意味的整合性判断課題によって,助詞レベルの交換型の言い誤り(1)を含む日本語二重目的語文の処理を検討した. 問いかけ八厶、これからどうするの?返答 a. パンにハムを挟むよ。(正文) b. パンをハムに挟むよ。(誤文) 二重目的語構文の基本語順については多くの研究がなされており,未だに議論の余地がある,日本語二重目的語構文の基本語順を予測する統計モデルを議論した研究 [3]では,『現代日本語書き言葉均衡コーパス』から二重目的語構文を抽出して分析した結果, 名詞句の情報構造の効果として知られる,旧情報が新情報よりも先行する現象(“given-new ordering”)が,直接目的語と間接目的語間の語順に関して確認された。 また,「手に入れる」「恩を売る」などの熟語や,「棚上げ」「ごま和え」などの複合語を広辞苑から抽出し,二格を目的語にとる動詞とヨ格を目的語に取る動詞の数を比較し基本語順を捉えようとした研究 [4]では,二格を目的語にとる動詞のほうがラ格を目的語に取る動詞に比べ圧倒的に数が多いという結果を示した.さらに,「をに文」の二格は,ヲ格に比べ生産的に用いられていないことを示した。したがって,日本語の二重目的語構文の基本語順は, 「間接目的語-直接目的語(「にを文」)」であることが示唆される. しかし, 抽出した熟語や複合語はニ格とヨ格のどちらを目的語にとるかが動詞ごとに異 表 2 刺激文のパターン例 なることから, 二重目的語構文の基本語順は動詞によって異なり,一貫した語順が定まりにくい可能性が考えられる。 本研究では, 先行研究を基に, 二重目的語構文において,旧情報を先に提示するか否かと,文の語順が基本語順かかき混ぜ語順かという 2 つ要因が言い誤りの検出のしやすさに影響すると考え以下の仮説を立てた。 仮説 1 言い誤りを含む二重目的語構文において,旧情報が先にある文 (2a) のほうが,旧情報が後にある文 (2b) に比べて誤りに気づきやすい. (2) 問いかけ公、これからどうするの? $ \begin{array}{ll} \text { 返答 a. ハムにパンを挟むよ。(誤文) } \\ & \text { b. パンをハムに挟むよ。(誤文) } \end{array} $ 仮説 2 二重目的語構文の基本語順である「にを文」(2a)のほうが,かきまぜ語順である「をに文」 (2b) に比べて誤りに気づきやすい. 仮説 3 語順よりも旧情報の位置の操作のほうが,言い誤りの検出のしやすさに強い影響を及ぼす. ## 2 方法 ## 2.1 実験参加者 日本語を母語とする日常生活に支障のない東北大学学部生および大学院生 60 人(女性 30 人, $20.83 \pm 1.98$歳)が実験に参加した. ## 2.2 刺激文 二重目的語構文 (ターゲット文: 返答文) とそれを導く問いかけ文による対話を 48 セット用意した。述語項構造シソーラス(Predicate-Argument Structure Thesaurus (PT)) $)^{\mathrm{r}}$ 利用しながら,動詞と典型的に共起しやすい名詞を使って新たに文を作成した. 全て二格名詞,ヨ格名詞,動詞を含む文で,二格名詞の意味役割が[着点], Э格名詞の意味役割が[対象]であり,二格名詞, Э格名詞がともに無生物で,身体部分や抽象概念ではないものとした. ターゲット文は, 旧情報の位置 (先/後) と語順 (基本語順/かき混ぜ語順) を操作して 4 パターン用意し,さらにその 2 つの名詞句を入れ替えることで誤文を用意した (表 2). 問いかけ文は, ターゲット文に含まれる名詞を利用して作成した (表 2). 上記に加え,フィラ一の対話を 48 セット作成した. いずれもデ格名詞とヨ格名詞を含む文であった. すべての文の間で,同じ名詞と動詞を 2 回以上使わないようにした. 夕一ゲット文では, 2 つの名詞句の間でモーラ数と親密度 [5]の平均に有意な差がないことを確認した。 これらのセット内のパターンは参加者間でカウンタ ーバランスをとり,ランダムに呈示した. ## 2.3 手続き 図 1 意味的整合性判断課題試行例 表 3 返答文読み時間に与える諸要因の効果 図 2 返答文平均読み時間(正文) 参加者は,コンピュータのモニタに提示される対話を 1 文ごとに自己ペースで読み進め, 読み終わつた次の画面で直前のターゲット文が意味的に整合しているかどうかの判断を, ボタン押しによって行った (図 1). 途中で一度小休止をとった. 本試行の前に練習を行った。 課題終了後に, 質問紙によるフォローアップ調查を実施した. 各質問紙には各参加者が提示されたパターンによる誤りを含む 48 文において,この文の話し手が本来意図していた発話はどのようなものだと考えられるかを作文するよう求めた. ## 2.4 分析 返答文提示における反応時間 (返答文読み時間),意味的整合性判断パートにおける反応時間,回答の正答率を従属変数, 旧情報の位置, 語順を独立変数として, 線形混合効果 (linear-mixed-effect: LME) モデルによる分析を行った. ランダム要因として,参加者と刺激文を含めた. R studio version 3.5.3 (C) The R Foundation) 上でパッケージ lme4 (Bates, Maechler, Bolker \& Walker, 2015) と lmerTest (Kuznetsova, Brockhoff \& Christensen, 2017)を使用した. ## 3 結果 返答文の読み時間については, 表 3 に示すように正 図 3 返答文平均読み時間(誤文) 文と誤文の双方において,語順の主効果が得られた。 また,正文,誤文のどちらも旧情報の位置と語順の 2 次の交互作用は得られなかった. 図 2,3 からもわかるように,語順がかき混ぜ語順(をに)の文のほうが基本語順 (にを) の文に比べて反応時間が長く,「をに文」のほうが「にを文」よりも文理解の処理負荷が高いことが示された。 回答の正答率については, 正文において, 語順の主効果および旧情報の位置と語順の 2 次の交互作用が得られた (表 3). 図 4 に示すように,旧情報の位置が後で語順がかき混ぜ語順 (をに) の場合のほうが他に比べて正答率が低くなっていた.つまり,旧情報が新情報よりも後に位置する場合には「にを文」 よりも「をに文」のほうが意味的整合性判断の基準が厳しくなることが明らかになった. また, フォローアップ調査の回答に関してクロス表集計によるカイ二乗検定を行った結果, 誤文の助詞の順序と訂正方法の連関が有意であり $\left(\chi^{2}{ }_{1}=\right.$ $11.43, p=0.001$ ).誤文の語順が基本語順(にを)の場合は名詞を入れ替えることで「にを文」の形に訂正されやすく, 誤文の語順がかき混ぜ語順 (をに) の場合は助詞を入れ替えることで「にを文」の形に訂正されやすいことが示された. つまり,誤文の助詞の順序に関わらず「をに文」への訂正よりも「にを文」への訂正が多く,「にを文」が好まれることが明らかになった。 表 4 回答の正答率に与える諸要因の効果 図 4 意味判断の正答率(正文) 図 5 意味判断の正答率(誤文) ## 4 考察 本研究では,言い誤りを含む文の理解過程に着目し, 旧情報の位置と語順が助詞レベルにおける交換型の言い誤り理解にどのような影響を与えるかについて検討した。 二重目的語構文を用いて意味的整合性判断課題を実施した結果,返答文の平均読み時間に関し,正文と誤文の双方において語順の主効果が得られた.「をに文」のようにヨ格が動詞から離れている場合のほうが,「にを文」のようにヨ格が動詞に近い場合よりも反応時間が長かったことから,「にを文」よりも「をに文」のほうが処理負荷が高いことが明らかになった.フォローアップ調査においても「にを文」 の形で正文を作成する場合が多く, 意味的整合性判断課題の結果を支持する結果となった. また, 回答の正答率に関して, 正文において旧情報の位置が後で語順が「をに」の場合に正答率が低くなっていたことから,旧情報が新情報に先行する文の理解における処理負荷の低さと, 文産出研究においてあまり生産的に用いられないとされている「をに文」の文理解における処理負荷の高さが示された. この結果の解釈としては, まず, 日本語の主要部後置主義が挙げられる. すなわち, 直接目的語を文の左側に置くことで処理負荷が高くなったと考えられる.また, 名詞の関係性も関連したと考えられる.二重目的語構文は「パンにハムを挟む」「デスクに本を置く」のようにニ格名詞のほうがヲ格名詞よりも物体として大きい傾向があり, 物体同士の関係性に対するイメージが文理解に関わった可能性がある. さらに,動詞の影響も考えられる。习格名詞,二格名詞,動詞の 3 つの組が与えられた場合,「をに」語順と「にを」語順のいずれか一方の語順が 90\%以上となる動詞が 8 割を占めると述べている研究 [6]もあり,さらなる調査が期待される. 先行研究はすべて正文における二重目的語構文の処理負荷を比較して語順や旧情報の位置の効果が調べられていた. しかし, 今回の研究によって初めて,誤文の処理においても語順が重要な要因であり,基本語順であるほうが意味的な正誤判断をしやすいことを示す結果が得られた. また, 名詞の情報状態も判断に適切に取り入れられ,旧情報が先に提示されていたほらが後に提示されている場合よりも意味の照合がしやすいことが示された. これまで文産出の研究において重要視されてきた言い誤りという現象が,文理解の分野でも日本語二重目的語構文の基本語順の解明に有効性を示唆する結果となった. ## 謝辞 本研究は,科学研究費基盤研究 (A) 19H00532 の助成を受けて実施した。 ## 参考文献 1. 寺尾康 (1992)「第 6 章文産出」石崎俊・波多野誼余夫(編)『認知科学ハンドブック』 371,379380. 東京 : 共同出版. 2. 寺尾康 (2002) 『言い間違いはどうして起こる?』東京 : 岩波書店. 3. 浅原正幸・南部智史・佐野真一郎 (2018) 「日本語の二重目的語構文の基本語順について」『言語資源活用ワークショップ発表論文集』 3: 280-287. 4. 遠藤喜雄 (2014) 『日本語カートグラフィー序説』東京: ひつじ書房, 90-110. 5. 天野成昭・小林哲生 (2008) 『基本語データベー ス語義別単語親密度』 東京: 学習研究社 6. 笹野遼平・奥村学 (2017) 「大規模コーパスに基づく日本語二重目的語構文の基本語順の分析」 『自然言語処理』 24(5): 687-703.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-3.pdf
# 日本人名にみられる音象徵: ## 子音タイプと母音タイプに着目した音声提示による実験 \author{ 市野満梨奈 1 木山幸子 ${ }^{2}$ \\ 1 東北大学文学部言語学研究室, 2 東北大学大学院文学研究科言語学研究室 \\ marina.ichino.q3@dc.tohoku.ac.jp; skiyama@tohoku.ac.jp } ## 1 はじめに 人の名前を聞いた時にその人物のイメージが喚起されることがある。これには、使用されている漢字の意味や、同名の人物・事物・事象の印象とともに、子音や母音の音象徵も影響していると考えられる。先行研究から、人物名において阻害音(日本語では、「か・が、さ・ざ、た・だ、は・ば・ぱ」行)や前舌母音(日本語では「い、え」)は、角ばった・男性的な印象を与え、男性名で好まれる傾向があり、共鳴音(同上、「な、ま、や、ら、わ」行)や後舌母音(同上、「あ、お、う」)は、丸みのある・やわらかい女性的な印象を与え、女性名で好まれる傾向がある (Jakobson, 1978; Köhler, 1929/1947; Perfors, 2004; Shinohara \& Kawahara, 2013; Slater \& Feinman, 1985;上村, 1965)と考えられている。また、阻害音と共鳴音の違いが、人のパーソナリティについても特定の異なる印象を喚起するという(Shinohara \& Kawahara, 2013)。しかし、日本語で実在する名前における音象徵については、まだ明らかにされていない。 本研究では、意味微分 (semantic differential, SD)法による印象評定実験を行い、実在する男女日本名において、子音(阻害音・共鳴音)と母音(前舌母音・後舌母音)がその名前を持つ人物についてどのような印象を形成するかを明らかにしたい。先行研究に基づき、男女名ともに、共鳴音や後舌母音の名前は「親しみやすい」「気長な」、阻害音や前舌母音の名前は「責任感の強い」「積極的な」などの印象が強くなると予測する。また、男性名では阻害音や前舌母音の名前が、女性名では共鳴音や後舌母音の名前がより肯定的に評価されると予測する。 ## 2 方法 ## 2.1 実験参加者 日本語を母語とする満 20 歳〜39 歳の男女 102 名 (うち男性 40 名、平均年齢 32.0 歳、標淮偏差 5.2) が参加した。CrowdWorks を通じて Web 上で実験を実施した。 ## 2.2 実験材料 実験は、名前を発音する音声刺激と顔描画刺激を組み合わせて提示し、形容詞対によって印象評定をさせた。PsyToolkit version 3.1.1 (Stoet, 2010, 2017) を使用した。 名前は、 3 モーラの日本人名を計 160 (男女各 80 )用意した。 1 モーラ目を、(1)阻害音 $\times$ 前舌母音(きみお、きみこ等)、(2)阻害音 $\times$ 後舌母音(かける、かえで等)、(3)共鳴音 $\times$ 前舌母音 (みきお、みおり等)、 (4)共鳴音 $\times$ 後舌母音(なおき、なおみ等)という、子音 $\times$ 母音の組み合わせに統制した。2・3 モーラ目については統制せず、できるだけ典型的な日本人の名前になるように配慮して作成した。 名前を読み上げた音声刺激には、合成音声ソフト CeVIO Creative Studio【通常版】を使用して作成した。男声 1 種、女声 1 種を使用し、「(名前) です」と発音させた。 顔描画は、男女各 20 種類用意した。視覚刺激による印象の差が出ないよう、同じ顔で髪型と服の色のみ変化をつけて本職のイラストレーターが描いた。 印象評価項目としては、林(1978)から対人認知の主要因子である「個人的親しみやすさ」「社会的望ましさ」「活動性」の 6 因子に対応し、各因子に高く寄与する形容詞対計 13 個を使用した(個人的親しみやすさ:「感じの悪い-感じのよい」「親しみにくい一親しみやすい」「短気な-気長な」「なまいきな-なまいきでない」、社会的望ましさ :「軽率な-慎重な」「無分別な-分別のある」「軽薄な-重厚な」「無責任な-責任感の強い」「無気力な-意欲的な」「いじわるな-親切な」、活動性:「消極的な-積極的な」「非社交的な-社交的な」、「恥ずかしがりの-恥しらずの」)。 ## 2.3 手続き 参加者は、顔描画を見ながら名前の音声を聞き、各人物の印象について 13 個の形容詞対の 6 段階スケールによって評価した。参加者 1 人につき、 40 の人物の印象を評価した。必ず音声を聞いて回答するように、音声は繰り返し聞いてよいと教示した。 ## 2.4 分析 ## 2.4.1 線形混合効果モデル 線形混合効果モデル(liner-mixed effect model)によって、各印象評価項目(形容詞対)における男女名の印象評価点に、1 モーラ目の子音タイプ・母音タイプという要因がどのように影響しているかを分析した。従属変数は、形容詞対ごとの評価点 ( $\mathrm{z}$ 值) とし、独立変数(固定効果要因)は、名前の性別(男性名/女性名)、子音タイプ (阻害音/共鳴音)、母音タイプ(前舌母音/後舌母音)の3つを設定した。ランダム効果要因として、参加者と名前、顔描画を設定した。 R version 4.0.3 (R Core Team, 2020) 上でパッケ ージ lme (Bates, Maechler, Bolker, \& Walker, 2015) と lmerTest (Kuznetsova, Brockhoff, \& Christensen, 2017) を使用した。 ## 2.4.2 因子分析 - 分散分析 本研究における因子の構成を確認するために、印象評価項目ごとの名前の評価点をもとに因子分析を行った(信頼性係数は、Cronbach's alpha $=0.81,95 \%$信頼区間 $=0.802-0.818)$ 。最小平均偏相関を基準として因子数を 3 に指定し、最尤法でジオミン斜交回転により因子を抽出した。 その後、因子分析で得られた各因子が、子音や母音という音韻特性に応じてどのように影響するかを調べるために、分散分析を行った。従属変数は、各形容詞対の評価点、独立変数は、因子(個人的親しみやすさ/活動性/社会的望ましさ)、子音タイプ、母音タイプの 3 つを設定した。因子分析には、 $\mathrm{R}$ version 4.0.3 上でパッケージ psych (Revelle, 2020) と GPArotation (Bernaards \& Jennrich, 2005) を使用した。分散分析にはパッケージ plyr (Wickham, 2011) と DescTools (Signorell et mult. al, 2020) を使用した。 ## 2.4.3 階層的クラスタ分析 男女の名前について、因子に基づく印象の差異に よって分類するため、各因子の平均印象評価点 $(\mathrm{z}$ 值) を独立変数として階層的クラスタ分析を行った。クラスタ併合の方法はウォード法、名前間の距離は平万ユークリッド法を用いた。 R version 4.0.3 上でパッケージ MASS (Venables \& Ripley, 2002) を使用した。 ## 3 結果 ## 3.1 線形混合効果モデル 子音タイプの主効果が見られた項目は、「消極的な -積極的な」 $(\beta=-0.161, p=0.030)$ と、「非社交的な -社交的な」 $(\beta=-0.185, p=0.007)$ であった。阻害音の名前が共鳴音の名前よりも、「積極的」(図 1) で、「社交的な」(図 2)印象を与えることが分かった。子音タイプと母音タイプ両方の主効果が見られた項目は、「無責任な-責任感の強い」(子音タイプ $\beta=$ $-0.121, p=0.043$, 母音タイプ $\beta=-0.130, p=0.044)$ 、「恥ずかしがりの-恥しらずの」(子音タイプ $\beta=$ $-0.242, p=0.002$, 母音タイプ $\beta=-0.166, p=0.011$ ) であった。共鳴音より阻害音の名前が、前舌母音より後舌母音の名前のほうが、「責任感の強い」(図 3)、「恥しらずの」(図 4)印象であった。 名前の性別と母音タイプの 2 次の互作用が見られた項目は、「無気力な-意欲的な」 $(\beta=0.189, p=0.035)$ であった。女性名において後舌母音の名前が前舌母音の名前よりも「意欲的な」印象を与えた(図 5)。 ## 3.2 因子分析 $\cdot$ 分散分析 因子分析では、先行研究で示されている 3 つの因子:「個人的親しみやすさ」(「いじわるな-親切な」、「無分別な-分別のある」、「なまいきな-なまいきでない」、「無責任な-責任感の強い」、「親しみにくい親しみやすい」)、「活動性」(「消極的な-積極的な」、「無気力な-意欲的な」、「非社交的な-社交的な」、「恥ずかしがりの一恥しらずの」)、「社会的望ましさ」(「軽率な一慎重な」、「軽薄な一重厚な」、「短気な一気長な」、 「感じの悪い-感じのよい」)の良好な解が得られた $(\mathrm{TLI}=0.944, \mathrm{RMSEA}=0.061,95 \%$ 信頼区間 $=0.057-$ $0.065)$ 。 形容詞対評価点についての分散分析の結果 (図 6)、子音タイプの主効果 $\left(F(1,10)=24.840, p=0.001, \eta_{\mathrm{p}}{ }^{2}\right.$ $=0.713)$ 、母音タイプの主効果 $(F(1,10)=8.516$, $\left.p=0.015, \eta_{\mathrm{p}}{ }^{2}=0.460\right)$ 、因子と子音タイプの交互作用 $\left(F(2,10)=10.160, p=0.004, \eta_{\mathrm{p}}{ }^{2}=0.670\right)$ 、因子と母音タイプの交互作用 $\left(F(2,10)=8.080, p=0.008, \eta_{\mathrm{p}}{ }^{2}=\right.$ 0.618)が有意であった。共鳴音よりも阻害音が第 1 モーラにある名前の万が、また前舌母音よりも後舌母音が第 1 モーラにある名前の方が、全体として高く評価された。多重比較の結果、有意差が見られたのは共鳴音の「活動性」と阻害音の「個人的親しみやすさ」間のみだった $(p=0.021)$ 。共鳴音の「個人的親しみやすさ」と共鳴音の「活動性」間については有意傾向 $(p=0.095)$ があり、共鳴音の名前は「個人的親しみやすさ」が高く、「活動性」が低い印象を与える傾向があると言える。 ## 3.3 階層的クラスタ分析 男性名は 4 つのクラスタ(親しみやすさ低程度群 /親しみやすさ高程度群/活動性・社会的望ましさ低程度群/活動性・社会的望ましさ高程度群)に分類された (判別分析の交差妥当化による正判別率: $97.5 \%$ )。 女性名は 3 つのクラスタ(親しみやすさ・社会的望ましさ高程度群/親しみやすさ・社会的望ましさ低程度群/活動性高程度群) に分類された (同: 92.5\%)。 男性名について、「活動性・社会的望ましさ高程度群」は、1 モーラ目に $[\mathrm{sh}]$ や $[\mathrm{t}]$ を、 3 モーラ目に共鳴音、特に $[\mathrm{r}]$ を使用する名前(しげる、たける、 とおる等)の割合が高いという特徴がみられた。「親しみやすさ高程度群」は、2 モーラ目に $[\mathrm{t}]$ を(もとき、もとし、ゆたか)、3 モーラ目に $[\mathrm{g}]$ を(けんご、 しんご、せいご)使用する名前の割合が高いという特徴がみられた。 女性名については、阻害音を多く含む名前が全体的に高く評価された。「親しみやすさ・社会的望ましさ高程度群」は、1 モーラ目に共鳴音と前舌母音 [i] を、2・3 モーラ目に阻害音を使用する名前の割合が高く(みかこ、みさこ等)、特に 2 モーラ目に $[\mathrm{z}]$ を使用する割合が高い(みずほ等)という特徴がみられた。「活動性高程度群」は、1 モーラ目に阻害音、特に $[\mathrm{ch}]$ を(ちあき、ちひろ等)、2 モーラ目に $[\mathrm{ts}]$ を(せつこ、なつみ等)、3 モーラ目に $[\mathrm{r}]$ (ひかり、 みおり等)を使用する名前の割合が高いという特徴がみられた。 図 1 性別・子音タイプ・母音タイプごとの 「消極的な一積極的な」への平均評価点注 : 誤差バーは標準誤差である。 図 2 性別・子音タイプ・母音タイプごとの 「非社交的な-社交的な」への平均評価点注 : 誤差バーは標準誤差である。 図 3 性別・子音タイプ・母音タイプごとの 「無責任な-責任感の強い」への平均評価点注 : 誤差バーは標準誤差である。 図 4 性別・子音タイプ・母音タイプごとの「恥ずかしがりの-恥しらずの」への平均評価点注 : 誤差バーは標準誤差である。 図 5 性別・子音タイプ・母音タイプごとの「無気力な-意欲的な」への平均評価点注 : 誤差バーは標準誤差である。 図 6 因子と子音タイプ・母音タイプごとの平均評価点 注 : 誤差バーは標準誤差である。 ## 4 考察 本研究は、実在する日本人の男女名において子音 と母音のタイプがその名前を持つ人物についてどのような印象を形成するかを検討した。男性名においては、阻害音や前舌母音の名前が、女性名においては共鳴音や後舌母音の名前がより肯定的に評価されるのではないかと予測したが、そうした予測とは異なる傾向が認められた。 分析の結果、男女名ともに、1 モーラ目が阻害音の名前は共鳴音の名前よりも、また 1 モーラ目が後舌母音の名前は前舌母音の名前よりも「活動性」が高い印象を与えることが分かった。また、1 モーラ目が共鳴音の名前は「個人的親しみやすさ」が高く、 「活動性」が低い印象を与える傾向もみられた。 子音については予測を支持する結果といえる。阻害音は発音時に口腔内気圧の上昇があり、圧力的変化が非周期的で角ばった波形となり、共鳴音は発音時に口腔内気圧の上昇が少なく、圧力的変化が周期的で丸みのある波形となる (川原, 2017)。この音響的な特徴や、阻害音調音時の強い狭めを作る動作、後舌母音調音時の口腔を広げる(篠原・川原, 2013)動作が、阻害音と後舌母音の「活動性」が高い印象、共鳴音の「個人的親しみやすさ」が高く「活動性」 が低い印象に影響したと考えられる。 1 モーラ目の子音タイプ・母音タイプの違いが「個人的親しみやすさ」「活動性」「社会的望ましさ」に関する印象の変化に影響していることも明らかとなった。また、各クラスタは母音よりも子音の違いで弁別されていたため、日本人名において前述の印象の違いを生み出すのは、母音よりも子音の影響が大きいと言えるのではないだろうか。子音は母音よりも先に現れるため、印象により大きな影響力を持つと考えられる。1 モーラ目の阻害音 [sh] や [ch]、3 モーラ目の共鳴音 $[\mathrm{r}]$ が「活動性」を高め、 $2 \cdot 3$ モ一ラ目の濁音が「個人的親しみやすさ」を高めるなど、阻害音や共鳴音をどのモーラで使用するのかによって印象が変化し、阻害音や共鳴音という分類の中でも、特定の音が特定の印象を高める可能性もあると考えられる。 先行研究では、女性名はやわらかい印象を与える共鳴音が好まれるとされていたが、本研究では、阻害音を多く含む名前のほうが共鳴音を多く含む名前よりも、「個人的親しみやすさ」「活動性」「社会的望ましさ」の観点から高く評価された。この背景には、社会で活躍する女性が多くなってきている現在において、以前よりも阻害音の持つ動的な印象が好まれるという時代の変化が関係しているかもしれない。 ## 引用文献 林文俊 (1978) 「対人認知構造の基本次元についての一考察」『名古屋大學教育學部紀要(教育心理学科)』 25: 233-247. Jakobson, Roman (1978) Six lectures on sound and meaning. Cambridge: MIT Press. 川原繁人 (2017) 『「あ」は「い」より大きい!?一音象徵で学ぶ音声学入門』東京: ひつじ書房. Köhler, Wolfgang (1929/1947) Gestalt psychology. New York: Liveright. Perfors, Amy (2004) What's in a Name? The effect of sound symbolism on perception of facial attractiveness. Proceedings of the Annual Meeting of the Cognitive Science Society 2004 26(26): 1617. 篠原和子・川原繁人 (2013) 「第 2 章音象徴の言語普遍性「大きさ」のイメージをもとに」『オノマトペ研究の射程 = Sound Symbolism and Mimetics:近づく音と意味』 東京:ひつじ書房. Shinohara, Kazuko \& Shigeto Kawahara (2013) The sound symbolic nature of Japanese maid names. The proceedings of the Japan Cognitive Linguistics Association 13: 183-193. Slater, Anne Saxon \& Saul Feinman (1985) Gender and the phonology of North American first names. Sex Roles 13: 429-440. 上村幸雄 (1965) 「音声の表象性について」『言語生活』171(12): $66-70$. 東京 : 筑摩書房. 「良運命名五十音順から見るおなまえ一覧」(引用日 2021 年 1 月 10 日) https://www.nihonikuji.com/search/aiueo. ## 謝辞 本研究は、科学研究費基盤研究 (A) 19H00532 の助成を受けて実施した。実験実施や結果の解釈の際には、東北学院大学の那須川訓也先生のご助言をいただいた。記して感謝する。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-4.pdf
# Simulating acceptability judgments using ARDJ data Kow Kuroda ${ }^{1}$, Hikaru Yokono ${ }^{2}$, Keiga Abe ${ }^{3}$, Tomoyuki Tsuchiya ${ }^{4}$, Yoshihiko Asao ${ }^{5}$, Yuichiro Kobayashi ${ }^{6}$, Toshiyuki Kanamaru ${ }^{7}$, and Takumi Tagawa ${ }^{8}$ ${ }^{1}$ Kyorin University, ${ }^{2}$ Fujitsu Laboratories Ltd., ${ }^{3}$ Gifu Shotoku College, ${ }^{4}$ Kyushu University, ${ }^{5}$ National Institute of Communications and Information Technology ${ }^{6}$ Nihon University, ${ }^{7}$ Kyoto University, ${ }^{8}$ Tsukuba University ## 1 Introduction Acceptability judgment plays a crucial role in linguistic theorizing $[5,15,17,19]$. But it is far from fully understood how "ordinary" people react to sentences with varied degrees of deviance or anomaly, simply because there is no such data provided with high reliability. In our understanding, current theoretical linguistics is a strange mixture of best and worst practices [4]. In its best practice, it provides deep insights into human mind/brain. In its worst practice, research directions are under the strong influence of a few authorities, and discussions are plagued by confirmation biases $[1,2,9]$. This is why most "evidence" in current theoretical linguistics often falls close to anecdotes. This situation is reminiscent of the medical practices before "evidence-based medicine," aka EBM, was gaining ground. The essence of EBM is a fairly straightforward idea that all pieces of "evidence" need to be sorted out and hierarchically organized according to their effectiveness $[6,8]$. As medicine needed EBM to alleviate the harmful effects of authorities, linguistics seems to follow a similar path: it would need "evidence-based linguistics," or EBL, to be renovated. In our view, Acceptability Rating Data of Japanese (ARDJ) is a potential contribution to a virtual movement for EBL in that it explores true nature of acceptability judgments using a sharable, large-scale, randomized survey, based on as little theoretically biased stimuli as possible. Its goal is to provide "proper evidence" in linguistics, though it is only the beginning, we admit. ARDJ has completed two experiments. The first one, called "survey 1," was carried out in 2017. It was intended to be a pilot study with only a limited variety of responders (roughly 200 college students only) on 200 sentences for stimuli. Kuroda et al. [10] reported on this survey. The second experiment, called "Survey 2," was carried out in 2018. This was the main study, with the stimulus set expansed to 300 with some overlap with Survey 1. Samples of the used stimuli are presented in Table 1. Survey 2 had two phases, Phases 1 and 2, and collected responses from 1,880 participants in total. ${ }^{1)}$. Phase 1 was a small scale paper-based survey, to which 201 partici- ^{1)}$ The response data we used for analysis is freely available at https : // kow-k.github.io/Acceptability-Rating-Data-of-Japanese/, but you need to register to use it. } pants (basically college or university students) contributed responses. This was comparable to the pilot study done in 2017. Phase 2 was a large scale web survey to which 1,679 participants contributed responses. They were significantly more varied in attributes and we would safely state responses obtained were randomized enough. Kuroda et al. [11] analyzed the data at Phase 2 of Survey 2 and reported the results of Hierarchical Clustering and PCA applied to it, excluding data at Phase 1. See Appendix A for relevant information. The current paper serves as a supplement to the previous report in that it tries to directly simulate human's acceptability judgments rather than simply clustering obtained data. To this end, we conduct two analyses. In Analysis 1, we use Semi-supervised Local Fisher Discriminant Analysis (SELFA) [20] to see how clusters obtained are likely to be related to acceptability judgments. This analysis is exploratory in that it does not simulate acceptability judgments directly. In Analysis 2, we try a direct simulation of human categorical judgments using logistic regression [14] to yield a promising result. But it comes with a surprising suggestion that acceptability judgement is better characterized as a social decision rather than a personal/private one, against the popular view. ## 2 Partitioning responses by SELFA In Kuroda et al. [11], 300 stimuli were analyzed using Hierarchical Clustering and PCA. See Figure 6 for relevant information. Results like this are undoubtedly useful, but you would argue they are not enough, because they do not tell us what acceptability judgment is. Explicit modeling of it is missing. To this end, we need to implement a function that maps, or "interprets," our data at hand to acceptability judgments, where $P=\langle p[0,1), p[1,2), p[2,3), p[3, \infty)\rangle$ are explanatory variables, and labels $\mathbf{A}$ (cceptables) and UNA(cceptables) (plus undecidables $(\mathbf{X})$ if necessary) are objective variables. ## 2.1 Metrics to evaluate Our data did not have "acceptable" and "unacceptable" labels as such, though explicit modeling requires them. Thus, we need to generate them, but no obvious way is known. Table 1: Sample stimuli in gr0 We were forced to try out whatever metrics we could think of, ending up with the ones in (1). (1) a. Condition 0 : If $p[0,2)>0.5$ then A; else UNA. b. Condition 1: If $p[0,2)>\{0.6,0.72,0.85, \ldots\}$ then A; else UNA. c. Condition 2: If $p[0,2)>p[1,3)$ AND $p[1,3)>$ $p[2, \infty)$ then A; else UNA. d. Condition 3: If $p[0,2)>0.5$ then $\mathbf{A}$; if $p[2, \infty)>$ 0.5 then UNA; else $\mathbf{X}$. e. Condition 4: If $p[0,2)>0.5$ then $\mathbf{A}$; if $p[1,3)>$ 0.5 then UNA; else $\mathbf{X}$. f. Condition 5: If $\operatorname{MAX}(p[0,2), p[1,3), p[2, \infty))=$ $p[0,2)$ then $\mathbf{A} ;$ if $\operatorname{MAX}(p[0,2), p[1,3), p[2, \infty))$ $=p[2, \infty)$ then UNA; else $\mathbf{X}$. g. Condition 6: If $\operatorname{MAX}(p[0,1), p[1,2), p[2,3)$, $p[3, \infty))=p[0,1)$ then $\mathbf{A}$; if $\operatorname{MAX}(p[0,1)$, $p[1,2), p[2,3), p[3, \infty))=p[3, \infty)$ then UNA; else $\mathbf{X}$. h. Condition $6 r$ : If $\operatorname{MAX}(p[0,1), p[1,2), p[2,3)$, $p[3, \infty))=p[0,1)$ then $\mathbf{A}$; if $\operatorname{MAX}(p[0,1)$, $p[1,2), p[2,3), p[3, \infty))=p[3, \infty)$ then UNA; if $p[1,2)>p[2,3)$ then $\mathbf{X}$; else $\mathbf{Y}$. where $p[i, j)$ means density over ranges from $i$ next to $j$. (1)a,b,d,e are simple dichotomies with particular ad-hoc thresholds (e.g., 0.5, 0.6, .. ). In contrast, (1)c, $\mathrm{d}-\mathrm{h}$ are not simple dichotomies, involving $\mathbf{X}$ (and $\mathbf{Y}$ ) for buffering, and more importantly they are distribution-aware ones in that $\operatorname{MAX}(. .$.$) is used for decision.$ The metrics in (1) are evaluated using Semi-supervised Local Fisher Discriminant Analysis" (SELFA) [20] ${ }^{2)}$ to evaluate the models in (1). ${ }^{3)}$ We selected this for two reasons: 1) it is resistant to outliers and avoids over-fitting, and 2) it allowed us to seek the best mix of supervised and unsupervised classifications. To generate simulated "(in)correct judgments," we assigned A, X, and UNA to Clusters 1, 2 and 3 in Figure 6. ^{2)}$ An $R$ package ldfa [21] was chosen for this purpose. }^{3}$ SELFA, like LFDA, has a parameter $r$ to specify the dimensionality of reduced space. $r=3$ gave us the most reasonable results. Figure 1: SELFAs (Conditions 0 and 1) of 300 stimuli Figure 2: SELFA (Conditions 2 and 3) of 300 stimuli Figure 3: SELFA (Conditions 4 and 5) of 300 stimuli Figure 4: SELFAs (Conditions 6 and 6r) of 300 stimuli Table 2: correct counts and match rates for Conditions Figure 1 shows the SELFAs for Conditions 0 and versions of Condition 1. Figure 2 shows the results for Conditions 2 and 3. Figure 3 shows the results for Conditions 4 and 5. Figure 4 shows the results for Conditions 6 and $6 \mathrm{r}$. Note that the boundary between Clusters 1 and 2 in Figure 6 in Appendix A does not fit the A/X/UNAboundaries in Figures 1 and 2, suggesting that simple threshold-based partitioning is inadequate. The results for Conditions 2 and 3 look better but not drastically. The results for Conditions 4 and 5 in Figure 3 look good, and so do the results for Conditions 6 and 6r in Figure 4. The problem here is that it is hard to select the best result if there is one. ## 2.2 Simple evaluations of SELFA results Results in Figures 1-4 are informative, but they cannot be quantitatively assessed. To make our assessment quantitative, we tentatively measured the "correctness" of each metric in (1) by measuring the match rates between simulated "judgments" and cluster assignment interpretations $1 \rightarrow \mathbf{A}$, $2 \rightarrow \mathbf{X}$, and $3 \rightarrow$ UNA. Table 2 shows its results. It says that in terms of simple match rate, Condition $\mathrm{C} 4 r 3$ performed the best, and Condition $\mathrm{C} 4 r 2$ the next best. Conditions $4 r N$ are variants of Condition 4 in (1e) with threshold values other than 0.5 determined by manual tweaking. Specifically, a. Condition $4 r 2$ : If $p[0,2)>0.8$ then $\mathbf{A}$; if $p[1,3)>0.60$ then UNA; else $\mathbf{X}$. b. Condition 4r3: If $p[0,2)>0.8$ then $\mathbf{A}$; if $p[1,3)>0.65$ then UNA; else $\mathbf{X}$. These results are far from definitive, however. Note that correctness thus defined is artificial, if not arbitrary. While we do not believe that this setting is seriously unrealistic, but we are not certain how much truth it can capture. Definitely, a better modeling is in need. ## 3 Logistic regression ## 3.1 Analysis 2 and its results Our strong motivation in the current research is to see if we can construct a reasonable model for acceptability judgment as as a categorical decision. SELFA successfully link clustering results to the models in (1) but does not give us exactly what we need. We need to take another route. For this purpose, logistic regression [14] was applied to the discrimination models listed in (1). This was done for two purposes. First, we had the impression that Condition 6(r) gave a better fit qualitatively and wanted to see whether our intuition was correct or not. Second, we wanted to see if parameter-free models could work, because $\mathrm{C} 4 r 2$, and $\mathrm{C} 4 r 3$, high performers, require manual parameterization for thresholds. Logistic regression was performed using glm package for $R$ with the formula as follows: ${ }^{4)}$ (3) decision $\sim p[0,1)+p[1,2)+p[2,3)+p[3, \infty)$ where decision $=1.0$ if label is $\mathbf{A}$ (or $\mathbf{X}$ ); otherwise, decision $=0.0$. Roughly, the formula in (3) checks if probability $p$ of $\mathbf{A}$ (with or without $\mathbf{X}$ ) against probability $(1-p)$ of UNA is predictable from the following estimate: $ \begin{aligned} & \ln \frac{p}{1-p}= \\ & c+w_{1} p[0,1)+w_{2} p[1,2)+w_{3} p[2,3)+w_{4} p[3, \infty) \end{aligned} $ where $c, w_{1}, \ldots, w_{4}$ are given in Table 3. The left-hand side is the log odds of $p$ against $(1-p)$ and the right-hand side is a linear combination of $p[0,1), p[1,2), p[2,3)$ and $p[3, \infty)$ with appropriate weights and an intercept $c$. Two settings were tried out for comparison. In one setting, only $\mathbf{A}$ was set to 1.0, and both $\mathbf{X}$ and UNA were into 0.0. In another, $\mathbf{A}$ and $\mathbf{X}$ were converted into 1.0 and only UNA was into 0.0 , on interpreting $\mathbf{X}$ as part of $\mathbf{A}$. In the first setting, none of the 11 conditions, $\mathrm{C} 0, \mathrm{C} 1, \ldots$, $\mathrm{C} 6, \mathrm{C} 6 r 1$, reached convergence. In the second, only C6 and C6 1 reached convergence ${ }^{5)}$ with the estimation presented in Table 3, and the others all failed. This indicates that $\mathbf{X}$ needs to be treated as A for convergence. But admittedly this contradicts with the relative closeness of Clusters 2 and 3. We will return to this in $\S 3.2$. Table 3: Coefficients for C6 and C6r 1 (significance codes: In this regression, $w_{4}$ turned out to be ineffective. In other words, the probability of $\mathbf{A}$ can be predicted from three values $p[0,1), p[1,2)$ and $p[2,3)$ only. ^{4)}$ Used link function is binomial. }^{5)}$ Incidentally, the fittings of C6 and C6r 1 returned the same result. Figure 5: Predicated acceptabilities by Condition 6(r1) To give readers a good grasp of the result, Figure 5 plots the predicted values (between 0.0 and 1.0) for sampled 100 sentences. ${ }^{6)}$ Quite interestingly, only C6 and C6r1 reached convergence and all other Conditions, including $\mathrm{C} 4 r 2$ and $\mathrm{C} 4 r 3$, high performers in simple metric, failed to converge. This result is noteworthy, because it suggests that effectiveness in terms of simpler measures can be faulty. ## 3.2 Discussion for Analysis 2 The status of Cluster 2 (in red, of $\mathbf{X}$ stimuli) in Figure 6 in Appendix A is troublesome. Are they part of A or UNA? This is a choice of theoretical importance that makes a difference. In Analysis 2, we compared two cases where $\mathbf{X}$ is included into UNA and alternatively it is included into $\mathbf{A}$. The result revealed that the second treatment was necessary for convergence. Though it is far from definitive, it suggests that the best way to treat $\mathbf{X}$ is to include it into $\mathbf{A}$. But this conclusion cannot be debate-free, because in terms of closeness of clusters, Clusters 2 and 3 form a larger cluster. So, the result is fairly puzzling, making the obtained solution look somewhat opportunistic. We admit that we can offer no good explanation for this. Whatever status Cluster 2 has, though, it would not be a serious problem as far as we consider the preconditions for convergence of logistic regression. Under logistic regression, only Conditions 6 and $6 r 1$ converged and all other conditions failed. Given this result is not accidental, it poses interesting theoretical implications for the question of what mental process acceptability judgement demands. Note that Conditions 6(r1) uses MAX(...) function. Because $\mathbf{X}$ is included in $\mathbf{A}$, Condition 6(r) is equivalent to: ^{6}$ Sentences were sampled because a full plot of 300 predicated values was very likely be unreadable. } (4) If $\operatorname{MAX}(p[0,1), p[1,2), p[2,3), p[3, \infty))=p[3, \infty)$ then UNA; else A. This evaluation metric is "collective," in the sense of "collective intelligence" [13, 18], or at least "population-aware," in that it is density-based. But how can a judgment be population-aware? What is crucial is that each rater should "know" how others respond, or at least they should be able to relativize their own ratings to those by other raters, most likely performing a kind of mental simulation of judgements by others. Why is this so? Because, otherwise, higher function like MAX (...) would not be unnecessary. If this conclusion is correct, it suggests that acceptability judgment is not only a fairly complex decision, but also a "socialized" decision, we would like to claim. This conclusion is debatable but intriguing enough from the perspective of language acquisition in social context [22] and perspective of cultural inheritance $[3,7,16,23]$. Another important implication is that acceptabilities, as something measurable, are not an intrinsic property of stimuli, i.e., sentences. Rather, they are a property "distributed" over a population of speakers. This likely to debunk the methodological basis of a certain brand of linguistics that do not see acceptabilities in this way. ## 4 Conclusion Two models for acceptability judgment as a categorical decision were considered in this paper. One is an indirect modeling of it using SELFA. Another was a direct modeling of it using logistic regression. The second modeling turned out to be successful, suggesting that it is possible to simulate human's acceptability judgments, at least in a rudimentary form. Moreover, and theoretically quite interestingly, successful simulation requires population-aware metrics rather than simple threshold-based ones. This is a bald conjecture, but is supported by the analyses presented in this study. But this conclusion also begs questions: 1) given acceptability judgement is a part of our "collective intelligence," how do individuals internalize it? We admit that this question is open to further research and theorizing. ## Acknowledgements This research was supported by JSPS through Grant-in-Aid (16K13223). We are grateful for Shunji Awazu (Jissen Women's University), Asuka Terai (Future University of Hakodate) and Minoru Yamaizumi (Osaka University), who kindly helped our execution of Phase 1 of ARDJ Survey 2. ## References [1] Jonathan Baron. Thinking and Deciding. Cambridge University Press, 2000 [1988, 1994]. [2] H. W. Bierhoff and R. Klein. Expectations, confirmation bias, and suggestibility. In V. A. Gheorghiu, et al., editors, Suggestion and Suggestibility, pp. 337346. New York: Springer, 1989. [3] Robert Boyd and Peter J. Richerson. Culture and the Evolutionary Process. University of Chicago Press, 1988. [4] Holly P. Branigan and Martin Pickering. An experimental approach to linguistic representation. Behavioral and Brain Sciences, 40, 2017. [5] Wayne Cowart. Experimental Syntax: Applying Objective Methods to Sentence Judgments. Sage Publishing, Inc., 1997. [6] Evidence-based Medicine Group. Evidence-based medicine: A new approach to teaching the practice of medicine. Journal of the American Medical Association, 268(17):2420-5, 1992 (Nov 4). [7] Joseph Henrich. The Secret of Our Success: How Culture Is Driving Human Evolution, Domesticating Our Species, and Making Us Smarter. Princeton University Press, 2017. [邦訳: 文化がヒトを進化させた: 人類の繁栄とく文化-遺伝子革命>. 白揚社, 2019.]. [8] David Isaacs and Dominic Fitzgerald. Seven alternatives to evidence based medicine. The British Medical Journal, 319(7225):1618, 1999. EBM. [9] Joshua Klayman. Varieties of confirmation bias. Psychology of Learning and Motivation, 32:384-418, 1995. [10] Kow Kuroda, Hikaru Yokono, Keiga Abe, Tomoyuki Tsuchiya, Yoshihiko Asao, Yuichiro Kobayashi, Toshiyuki Kanamaru, and Takumi Tagawa. Development of Acceptability Rating Data of Japanese (ARDJ): An initial report. In Proc. of the 24th Annual Meeting of the Association for NLP, pp. 65-68, 2018. [11] Kow Kuroda, Hikaru Yokono, Keiga Abe, Tomoyuki Tsuchiya, Yoshihiko Asao, Yuichiro Kobayashi, Toshiyuki Kanamaru, and Takumi Tagawa. Insights from a large scale web survey for Acceptability Rating Data for Japanese (ARDJ) project. In Proc. of the 25th Annual Meeting for the Association of NLP, pp. 253256, 2019. [12] Sebastien Le, Julie Josse, and Francois Husson. FactoMineR: An $\mathrm{R}$ package for multivariate analysis. Journal of Statistical Software, 25(1):1-18, 2008. [13] P. Levy. Collective Intelligence. Basic Books, 1997. [14] Scott Menard. Applied Logistic Regression Analysis. Sage Publications, 2nd edition, 2001. [15] Gary Dean Prideaux, Bruce L. Derwing, and William J. Baker. Experimental Linguistics: Integration of Theories and Applications. John Benjamins, 1979. [16] Peter J. Richerson and Robert Boyd. Not By Genes Alone: How Culture Transformed Human Evolution. University of Chicago Press, 2008. [17] Carson T. Schütze. The Empirical Base of Linguistics: Grammaticallity Judgments and Linguistic Methodlogy. Language Science Press/University of Chicago Press, 2016 [1996]. [18] Steven Sloman and Philip Fernbach. The Knowledge Illusion: The Myth of Individual Thought and the Power of Collective Wisdom. Picador, 2017. [19] Jon Sprouse. Three open questions in experimental syntax. Linguistics Vanguard, 1(1):89-100, 2015. [20] Masaru Sugiyama, Tsuyoshi Ide, Shin'ichi Nakajima, and Jun Sese. Semi-supervised local Fisher discriminant analysis for dimensionality reduction. Machine Learning, 78(35), 2010. [21] Yuan Tang and Wenxuan Li. LFDA: An R package for local fisher discriminant analysis and visualization, 2016. [22] Michal Tomasello. Constructing a Language: A Usage-based Theory of Language Acquisition. Harvard University Press, revised edition, 2005. [23] 田村光平. 文化進化の数理. 森北出版, 2020. ## A Clustering and PCA of sentences ## A. 1 Collection of ratings/responses On acceptability rating, participants were asked to choose one of the four choices in (5). (5) 0. 違和感がなく自然に理解できる文 [natural and easy to understand]; 1. 違和感を感じるが理解可能な文 [more or less deviant but comprehensible]; 2. 違和感を感じて理解困難な文 [deviant and difficult to understand]; 3. 不自然な理解不能な文 [quite unnatural and incomprehensible] Prefixes 0, 1, 2 and 3 are added to indicate the degrees of deviance, though they need not be on a single scale. Outlier responders were filtered out using standard deviation $(0.6<\mathrm{sd}<1.5)$ and Mahalanobis distance $(<0.95)$. See Kuroda et al [11] for relevant details. ## A. 2 Standardizing responses Table 4: Frequency table by ranges (6 samples) Table 5: Density table by ranges (6 samples) Note that gr0, .., gr9 are different data sets, and cannot be directly compared. Comparison of them requires standardization. All groups were collapsed and responses were counted for each of the four rating ranges $r[0,1), r[1,2), r[2,3)$, and $r[3, \infty){ }^{7)}$ Table 4 shows 10 samples of this process. These raw counts were then converted into proportions to item-wise sums. This gave us density array, $P=\langle p[0,1), p[1,2), p[2,3), p[3, \infty)\rangle$, as exemplified in Table 5. The arrays of ranged response probabilities in this format are to be called "response potentials." They are commensurable among groups with different sets of responders, and were used as encodings of the stimuli in the following multivariate analyses. ${ }^{8)}$ ^{7)}$ Note that allowed response values were $0,1,2$, and 3 . These numbers are reinterpreted as ranges $r[0,1), r[1,2), r[2,3)$, and $r[3, \infty)$, respectively, where $r[i, j)$ means a sum of response counts between $i$ and $j$ with $i$ included and $j$ excluded. }^{8)}$ Another route to follow is data imputation in which missing values are ## A. 3 Hierarchical clustering and PCA Hierarchical clustering is a popular method for grouping data. Principal Component Analysis (PCA) is a popular method for revealing a simple geometry in the data. An $\mathrm{R}$ package FactoMineR [12] was used to PCA and Hierarhical Clustering in combination. Figure 6: HCxPCA of combined responses for gr0-gr9 Building on standardized responses, a multivariate analysis was conducted where PCA was combined with hierarchical clustering, resulting in visualization in Figure 6. In this, we recognize three major classes of stimuli: clusters 1 (in black, of supposedly "acceptable" stimuli), cluster 2 (in red, of undecidable stimuli) and cluster 3 (in green, of supposedly "unacceptable" stimuli). Clusters 2 and 3 form a larger cluster, contrasting with cluster 1. ## A. 4 Interpreting PCs Table 6: Effects of principal components Table 6 gives the contribution of the three factors identified by PCA. PC 1 roughly corresponds to the polar opposition of $r[0,1)$ and $r[2,3)$. PC 2 is mildly encoded by $r[1,2)$, and weakly by $r[3, \infty)$. The interpretation of PC1 is straightforward. It encodes the degree of deviance (read from right to left), or of acceptability (read from left to right). In contrast, the interpretation of PC2 is not as simple as PC1. A few likely interpretations come to mind, but the most convincing one would be that PC2 encodes semantic and/or syntactic complexity that often blurs the judgment. imputed. We made a few attempts but it turned out that our data have too many unobserved data points to be handled successfully.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-5.pdf
# 相互排他性を考慮した深層強化学習による幼児語彙獲得モデル 藤田守太 電気通信大学 fujishu0407@uec.ac.jp } 南泰浩 電気通信大学 minami.yasuhiro@is.uec.ac.jp } 田口真輝 電気通信大学 taguchi@is.uec.ac.jp ## 1 はじめに 言語処理の分野において, 語とその実態を結び付ける記号接地問題 [1] がある. 現在, 多くの認識課題では, 対象の物体または行動(これを以降実態と呼ぶ)に, 語が与えられ, その語に対して, 人が実態の特徵量を与えることにより, 実態を結び付けている. そのため, 語と実態の特徴群を機械が自律的に結びつけることは出来ていない. 機械が語と特徴群を結びつけるためには, 機械が実世界の環境から自律的に語に対する特徵群を獲得していく必要がある.このような課題に対するアプローチとしてロボットによる動作と言語のシンボルグラウンディング [2] や複数のロボットによる語彙共有 [3] など様々な研究がある.しかし,これらの研究は心理学的に観察される様々な事象を必ずしも満たすものとはなっていない. 本研究では, 記号接地問題に対して, 人間が行っている語彙獲得機構に基づき, 記号接地問題に取り組むことが記号接地問題解決へのステップになると考えている. また,このアプローチは心理学分野の語彙獲得機構解明への糸口にもなる. しかしながら, 事前知識のない状態で機械に人間と同様のプロセスを経る幼児語彙獲得モデルの研究は十分に成果を上げているとは言えない.このような状況の中で心理学的要因に基づいて幼児の語彙獲得の仕組みをニュー ラルネットワークと強化学習を組み合わせてモデル化した研究 [4], さらにこれを拡張させ現実のデータで行った研究 [5]が提案されており, 新たな研究領域を確立しつつある.しかし,これらの研究では一度に幼览の目に入る実態(ここでは物体)を一つしか想定していない. 実際には, 幼坚が同時に目にする物体は複数あり, その中から, 幼坚は対象物体を検出し,語と意味を結びつけている. 本研究では, 幼児のこの機構を実現するため, 複数の物体を提示した状態で,心理学的要因を考慮した幼児語彙獲得モデルを構築する. ## 2 幼児の心理学的要因 現実世界で語の意味を推論する際には, 膨大な事例が必要となる [6]. しかし, 幼览は少ない事例で, これらの語の意味を正確に推論し, 語彙を獲得することが可能である.このことから幼坚が語の意味を推論する際に何かしら幼览が得る語の意味の可能性に制限を加える暗黙的知識の存在を仮定する仮説が提案されている [7]. そこで本章では, 幼児語彙獲得モデルにおいて見られる心理学的要因についてみていく. ## 2.1 共同注視 共同注視とは, 非言語的コミュニケーションの一つであり, 親, あるいは, 幼览が何かに注目しているときにもう一方も同じ対象に注目する行動である.幼览の語彙獲得は共同注視によって親と幼坚が共通の対象に対して注目することで行われる. また, 母親が子供の注意を追うことで語彙の獲得が加速される [8][9]. ## 2.2 意図の理解 共同注視の節で母親が幼览の注意を追うことと語彙数の間には強い相関があると述べたが, 幼児は語彙獲得において受動的な存在であるわけではない. Baldwin の実験 [10] では幼児は親の意図について積極的に理解しょうと試みており, 親と幼坚による相互行為によって語彙獲得は進められていることが示された. このように幼览の語彙獲得において, 幼览が親の意図を理解することは重要な意味を持つ. 実際に Tomasello らが行った探し物に関する実験 [11][12] においても, 親が対象物の探し物ゲームをしていること, 親が怪訝な顔や微笑みで幼览の回答の正解不正解を表現していることなど親の意図を理解することで, 明示的に対象物と語を示さなくても幼児が未知の語を獲得するなど語彙獲得において重要な役割を果たしている。 ## 2.3 バイアスの獲得 バイアスと呼ばれる暗黙的な知識には名詞を優先的に学習する名詞バイアス, 形状に注目し, 形状が似ているものを同じ物体であると見做す形状バイアスなど様々なバイアスが存在する.これらは幼坚が語彙を獲得する際に形成されており, 推論に制限を与えることにより, 語彙獲得を容易にする働きがある. ## 2.4 相互排他性 相互排他性とは一つの物体に対して,一つの語しか付与されないという暗黙的知識のことである. 幼児は名前の知っている物体と未知の物体がある状況で未知の語を聞くと, それが未知の物体に付けられた語だと解釈する [14]. これは例えば, りんごを知っている幼児が「お腹がすいたのでへクを取って」と言われた際に, 未知の物体である口紅をとるといった非常に強力な制約である [15]. ## 3 提案手法 本研究では, 複数の物体を提示しても語彙が獲得できるモデル, 2 章で暑かった幼児の心理学的要因を考慮した幼児語彙獲得モデルで実現する. 共同注視, 意図の理解, バイアスの獲得について考慮したモデルを 3.1 で説明する.このモデルを複数物体の提示でも動作するよにするため, 相互排他性を考慮した機構を導入する. それを 3.2 で説明する. ## 3.1 深層強化学習による語彙獲得モデル ここでは田口らの語彙獲得モデルに基づいて説明を行う [4][5]. 本研究において語彙獲得は親の意図の理解を介して行われる. そこで幼坚による語の選択を出力, また, 親からの意図を報酬という形での母子相互作用を考える. 具体的なモデルの構造を図 1 に示す. まず, 共同注視により語彙獲得が始まり, 初期状態 $s_{0}$ を心的状態を表す LSTM に入力し, その出力結果をDQN1に入力として与える.これにより, DQN1 はどの特徴を選択するかを出力した後, LSTM は状態 $s_{1}$ の特徵情報を更新し,この状態を次の LSTM に入力し, その出力結果を DQN2 の入力として与えることで, DQN2 は語の選択を行う. この処理を語が一致するか定められた回数まで繰り返す. 図 2 は幼児語彙獲得モデルの一連の語彙獲得の流れであり, 語彙獲得のアルゴリズムを以下に示す. まず, 語彙獲得させたい物体を選択, 幼坚語彙獲得モデルが親の意図を理解し,未知の物体に共同注視することで語彙獲得が始まる. (共同注視, 親の意図に関する機構に関しては, [4][5] を参照のこと.ここでは簡単に説明する.) 幼児語彙獲得モデルはどの特徵を取得するのか深層強化学習を用いて選択し, 特徵から未知の物体の特徵量を取得する. その後, 幼坚語彙獲得モデルは取得した特徵量から深層強化学習を用いて語候補から語を決定する. 幼坚語彙獲得モデルの回答が正解ならば親は售めるなどの報酬を,不正解ならば顔を歪めるなどの負の報酬を与える. これを正解するか決められた回数まで繰り返す. 本研究で構築する幼児語彙獲得モデルは初期状態では事前知識を持たず,ランダムな選択をするが語彙獲得が進むにつれて, 語彙を決定するのに適した暗黙的知識を獲得する。(ここでは、形状バイアスを想定) 図 1 幼肾語彙獲得モデルの構造 図 2 語彙獲得の一連の流れ ## 3.2 相互排他性を説明する機構 本研究では幼背語彙獲得モデルに 2 つの物体を提示, それぞれの特徵量を取得し各物体について既知か未知かを判断する機構を導入することで幼児語彙獲得モデルに相互排他性をを説明する機構を導入する. アルゴリズムは以下である. 1. 2 つの物体をそれぞれ幼児語彙獲得モデルに提示し, 提示された物体についてどの語であるか推定を行う。 2. 親から語を取得し, 語について DQN2 の出力が高い物体を選択する。 3. 選択された物体については語を明示的に示された状態で学習を行う。 4. 選択されなかった物体については 3.1 章の学習を行う。 また, 具体例としてオレンジについての相互排他性を図 3 に示す。 物体 1 はリンゴとして既知であり,物体 2 はオレンジだが未知である.この場合に幼览語彙獲得モデルは物体 1 をリンゴとして認識するためにオレンジである DQN2 の出力が低くなる。.よって未知であるオレンジを選択する. 図 3 相互排他性による判定 ## 4 実験 相互排他性を用いないモデルをベースライン [5] として, 提案手法の評価実験として以下の 3 つの実験を通して検証していく。 ・ベースラインとの比較 ・3物体を提示した状態での語彙獲得 ・語候補が 15 物体での語彙獲得 ## 4.1 データベース 本研究は実世界との記号接地を目的としている. そこで幼児語彙獲得モデルに対して実データを導入する手法として田口の手法 [5] を用いる. 特徴量の数値化について色特徴量にはカラーヒストグラム, 形特徴量には HOG, 味特徴量には文部科学省によって作成された日本食品標準成分表, 動き特徴量には Dense Trajectories をそれぞれ用いて特徴量とする.これらの特徴量を各物体毎に取得しデータベー スとして扱う。 また, 物体数に関して 2 個の食品, 3 個の非食品の合計 5 物体のデータセットと 10 個の食品, 5 個の非食品からなる 15 物体のデータセットを用意した。表 1 語候補 ## 4.2 実験条件 2 物体での実験については「幼览モデルが物体に対して事前に与えられた語候補の内のいずれかを答える」を 1 ステップとし, 「モデルが 2 つ物体に対してそれぞれ正解の語を答えるか, ステップ数が打ち切り回数を超える」を 1 エピソードとし, エピソー ド数を 15000 回, 打ち切り回数を 5 回とした. また, 3 物体の実験については「幼児モデルが物体に対して事前に与えられた語候補の内のいずれかを答える」を 1 ステップとし, 「モデルが 3 つ物体に対してそれぞれ正解の語を答えるか, ステップ数が打ち切り回数を超える」を 1 エピソードとし, エピソード数を 10000 回, 打ち切り回数を 5 回とした. それぞれ以上の条件で 50 エピソード毎にテストとして 50 エピソードでの正答率について測定し, 提案手法とベースラインの比較を行った。 ## 4.3 ベースラインとの比較 ベースラインと提案手法を比較することで相互排他性の有無が語彙獲得に与える影響についてみる。 ## 4.3.1 実験結果 提案手法を用いた幼児語彙獲得モデルとベースラインのエピソード数とテストの正答率を図 4 に示す. 図 4 から提案手法が正答率で大きく上回っており,相互排他性が有意に働いていることが確認できた。 図 4 提案手法とベースラインの正答率 ## 4.3.2 バイアスの獲得 バイアスの獲得は人間の語彙獲得機構の再現において重要な要素である. そこで特徴の選択傾向を見ることでバイアスの取得の有無を見る. 特徴の選択回数を確率に直し, ヒートマップに視覚化したものが図 5 になる. 1000 回時点では味と動きの特徴量が同じ程度で選択されており,ランダムな選択になっている.しかし, 5000 回時点では最初の特徵選択では味が選択されるようになった. また, 2 回目以降の特徴選択に関しても 1 回目の選択が固定されるにつれて固定されていった. 以上のことから幼児語彙獲得モデルが最初はランダムな特徴選択を行っていたが, 語彙獲得が進むにつれて特徵選択に優先度が付き規則的な特徴選択を行っていることが分かった。 これは, 親が名詞を提示し続けたこと(親の意図)により, 名詞を判別するための暗黙的な知識(バイアス)を獲得したことに他ならない. 図 5 左から 1000, 5000, 15000 回時点での特徵選択確率 ## 4.43 物体を提示した状態での語彙獲得 相互排他性による語彙獲得が 2 物体の時に限定されている可能性があるため, 3 物体を提示した場合についても成り立つことを確かめる。 ## 4.4.1 実験結果 提案手法を用いた幼坚語彙獲得モデルとベースラインのエピソード数とテストの正答率を図 6 に示す. 図 6 から提案手法が正答率で大きく上回っており, 3 物体に関しても相互排他性が有意に働いていることが確認できた。 図 63 物体を提示した提案手法とベースラインの正答率 ## 4.5 語候補が 15 物体での語彙獲得 上記の実験では語候補は 5 個に限定されていた。 しかし, 実際の世界ではより多くの語を獲得する. そこで語候補を増やした場合の動作についても検証していく. 提案手法を用いた幼児語彙獲得モデルとベースラインのエピソード数とテストの正答率を図 7 に示す. 図 7 からベースラインが語彙獲得出来ていないのに対して,提案手法は語候補が増加した影響を受けずに語彙獲得していることがわかる.これは既知の物体が出来た時に相互排他性に関する機構によって未知の物体の語彙獲得が行われたからだと考えられる。 図 7 語候補が 15 物体の場合の提案手法とベースラインの正答率 ## 5 まとめと今後の展望 本研究では相互排他性を説明できる機構を提案し, 従来の言語獲得機構に導入し, それを用いることにより複数物体を提示しても学習が進むことを確認した. また, 3 物体以上の場合や物体数を増やした場合にも同様にベースラインに比べて有効に語彙獲得が行われることが確かめられた。 複数物体を同時提示しても,相互排他性を考慮することで, 従来の語彙獲得モデルが機能することが確認できた. 我々は,このような心理学的な機構が学習の過程で, 順次獲得されていくと考えている.今後, 相互排他性がどのように獲得されていくのかも説明できるモデルの構築を目指す。 ## 参考文献 [1] Harnad, S. The symbol grounding problem. Physica D:Nonlinear Phenomena, 42(1-3), 335-346, 1990. [2] 小林一郎. 動作と言語のシンボルグラウンディングへの取り組み:自動運転車の対話的操作 を目指して. 言語処理学会第 26 回年次大会, A2-4, 2020. [3] Yoshinobu Hagiwara, Hiroyoshi Kobayashi, Akira Taniguchi, Tadahiro Taniguchi. Symbol emergence as an interpersonal multimodal categorization. Frontiersin Robotics and AI, Vol.6, p.134, 2019. [4] 野口輝. ニューラルネットワークと強化学習を用いた幼児語彙獲得のモデル化. 電子情報通信学会技術研究報告, 信学技報 Vol. 117(420), pp. 59-64, 2018. [5] 田口真輝. 実データを用いるニューラルネットワーク強化学習による幼児語彙獲得モデル. 電気通信大学コンピュータサイエンスプログラ么卒業論文, 2019. [6] Willard Van Orman Quine. Word and Object. MIT Press, 1960. [7] 今井むつみ.レキシコンの発達 : 子どもはどのようにしてことばを学習するか. 情報処理学会研究報告音声言語情報処理, Vol.2000, No. 15 pp.63-68, 2000. [8] Michael Tomasello, Michael Jeffrey Farrar.Joint attention and early language child development. Vol.57, No.6, pp.1454-1463, 1986 [9] Malinda Carpenter, Katherine Nagell, Michael Tomasello, George Butterworth, Chris Moore. Social cognition, joint attention, and communicative competence from 9 to 15 months of age. Monographs of the Society for Research in Child Development, Vol. 63, No. 4,pp. 1-174, 1998. [10] Infants' contribution to the achievement of joint reference. Child Development, Vol. 62, No. 5, pp. 875890, 1991. [11] Michael Tomasello, Randi Strosberg, Nameera Akhtar.Eighteen-month-old children learn words in non-ostensive contexts.Journal of Child Language.Volume23, pp.157-176, 1996. [12] Nameera Akhtar, Malinda Carpenter and Michael Tomasello.The role of discourse novelty in early word learning. Child Development, Vol.67, No. 2 pp.635-645, 1996. [13] Ellen M. Markman. Categorization and naming in children : Problems od induction. MIT Press, 1989. [14] Haryu, Etsuko. Effects of knowledge about crosslanguage equivalents on children's use of mutual exclusivity in interpreting novel labels.Japanese Psy- chological Research, Volume40, No.2, 82-91, 1998. [15] 針生悦子. 幼坚における事物名解釈方略の発達的検討〜相互排他性と文脈の利用〜. Japanese Journal of Educational Psychology, 39, 11 20, 1991.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-6.pdf
# 児童作文の評価に向けた脱文脈化観点からの検討 田中弥生 神奈川大学・国立国語研究所 yayoi@ninjal.ac.jp 佐尾ちとせ 関西学院千里国際中等部・高等部 csao@senri.ed.jp 宮城 信 富山大学 miyagi@edu.u-toyama.ac.jp ## 1 はじめに 作文はこれまで、使用語彙や漢字の割合などの文字表記、文の種類や構造など様々な観点から評価されてきた $[1,2]$ 。本研究は児童の文章作成能力の評価等の包括的研究に向けたパイロットスタディの位置付けで、児童によって書かれた作文の、テーマによる違いと学年による違いを、脱文脈化程度の観点からどのように捉えられるか検討するものである。 脱文脈化程度とは、コミュニケーションが行われている「今・ここ・わたし」の時空とその発話内容との、時間的・空間的距離の程度をさす。教室授業では、情報の “脱文脈化” と “文脈化” という二つの知的作業を子供達に課しているという [3]。また、「学校での多くの学びは、実生活の状況とは切り離され、脱文脈化された概念的な知識の獲得にむけられ」「日常の生活文脈に密着した状況的な思考から、日常の生活文脈から切り離された抽象的で無性格的な思考に慣れることが重要な課題となる」 ( $[3,33])$ とされる。これを作文にあてはめて考えると、学年があがるとともに、脱文脈化した表現を使用できるようになることや、脱文脈化した表現と文脈化した表現を操作できるようになることが考えられる。例えば、餅つきという行事を「年末に僕は餅つきをしました」という文脈化した個人的な体験として述べることも「僕たちの町内では毎年餅つきを行います」のように脱文脈化した表現で示すこともできる。さらに「餅つきは日本の伝統行事の一つです」のようにより一般化された知識として述べることも可能である。このように必要に応じて伝えたい情報を文脈化、あるいは脱文脈化させて文章を構成していくわけである。 脱文脈化の観点からの分析には、修辞ユニッ ト分析 ${ }^{1)}[6]$ の分類法を用いる。発話機能 (speech function)、中核要素 (central entity)、現象定位 (event orientation) の認定結果の組み合わせから修辞機能と脱文脈化程度を知ることができ、談話や文章においてどのような修辞機能が用いられているか、使用されている言語表現は脱文脈化程度が高いか低いか (「今・ここ・わたし」から遠いか近いか)、という観点からの検討が可能になる。これまで、成人や子供の談話、ネット上の QA サイトなど様々なテキストを分析し、児童生徒の作文については、脱文脈化の様相と教員の評価の関連を検討している [7]。本発表では、児童によるテーマの異なる作文の修辞機能と脱文脈化指数の出現頻度を確認して、(1) テーマによる違いと学年による違いを検討し、(2)特徴的な作文について修辞機能と脱文脈化指数の現れ方を検証する。 ## 2 分析対象と分析方法 ## 2.1 分析対象 分析対象は『児童・生徒作文コーパス』 $[8,2]$ に含まれる作文で、作文のテーマは「ゆめ (夢)」(以下、夢作文とする。)と「ぼくの/わたしのがんばったこと」(以下、がんばった作文とする。)である。このテーマは、先行研究を踏まえて、抽象的なものと生活文的なものということで決められ、「夢作文」については、将来の夢と就寝時に見た夢のいずれかという指示は行なっておらず、様々な内容が収集されている [2] という。本発表では、小学校低学年(1、 2 年)、中学年 $(3 、 4$ 年)、高学年 $(5 、 6$ 年) の $3 \supset$ の層に分け、「夢作文」と「がんばった作文」のそれ 1) Rhetorical Unit Analysis [4, 5] を日本語に適用したものである。 ぞれ 5 作文ずつ、計 30 作文を分析対象データとして用いた。低学年、中学年、高学年の、「夢作文」及び「がんばった作文」それぞれの平均文数(四捨五入)と同じ文数で、短単位数が平均(四捨五入)に近い作文を選んだ。中学年では「夢作文」と「がんばった作文」の両方で短単位数平均が同じ作文が 2 つあったため、文節数と文字数が平均に近い 1 つを選択した。表 1 にデータの概要を示す。 表 1 分析対象データの概要(短単位と文字数は平均値) ## 2.2 分析方法 修辞機能と脱文脈化指数の確認には修辞ユニット分析 ${ }^{2}$ [6] の分類法を用いる。以下に概要を示す3)。 ## 2.3 分析単位への分割と種類の認定 分析単位の「メッセージ」は概放節に相当し、 4 種類に分類する。「位置付け」は分類対象外で、「拘束; 意味的従属」は単独では分類しない。「拘束;形式的従属」と主節の「自由」について、以下の分類を行う。本研究の分析対象の作文は、その層の平均文数と同じ文数のものを選んでいるが、文の中に 「拘束; 形式的従属」がある場合、 1 文が複数のメッセージになるため、分析対象メッセージ数は作文によって異なっている。 ## 2.4 発話機能・中核要素・現象定位の認定 と修辞機能・脱文脈化指数の特定 メッセージの種類が「拘束; 形式的従属」及び「自由」と認定されたメッセージについて、発話機能・中核要素・現象定位を認定する。図 1 に示したように、これらの組み合わせから、修辞機能と脱文脈化程度が特定される。 図 1 と図 2 の数字は脱文脈化指数で、図 2 に示すように,その会話の場(今ここ)に最も近い(脱文脈化指数が低い)ものから、最も遠い(脱文脈化指数が高い)ものまで配置されている。 発話機能は 2 種類に分類する。「その本を取ってください」のような会話当事者がいるその場での品 2) Rhetorical Unit Analysis [4, 5] を日本語に適用したものである。 図 1 発話機能・中核要素・現象定位からの修辞機能と脱文脈化指数 図 2 脱文脈化指数 物・行為の交換に関する提供・命令は「提言」で、 この段階で修辞機能【行動】と脱文脈化指数 $\left.<1>^{4}\right)$ が特定される。情報の要求・提供は「命題」で、この後の分類を行う。 中核要素は、話し手と発話内容の空間的距離を表すもので、基本的に主語である5)。メッセージの送り手や受け手のいる場に存在する人や事象が中核要素の場合は「状況内」で、下位分類として、メッセージを伝達する当事者は「状況内; 参加」、伝達していない人や事象は「状況内; 非参加」に分類する。中核要素がその場に存在しない人や事象の場合は 「状況外小普遍的な性質などを述べているメッセー ジの主語は「定言」である。中核要素が省略されている場合には復元して認定する。 現象定位は、話し手と発話内容の時間的距離を表すもので、基本的にテンスや時間を表す副詞などによって表現される。「過去」「現在」「未来」「仮定」 に分類する。「現在」は、普遍的・習慣的か、一時的かの下位分類がある。「未来」は「未来; 意図的」 か「未来; 非意図的」に分類する。発話機能・中核要素・現象定位の分類後、図 1 から修辞機能と脱文脈化指数を特定する。  表 2 夢作文とがんばった作文の個々の修辞機能 (脱文脈化指数) の出現頻度と修辞機能の種類 & 計画4 & & & & 観測8 & 報告9 & & & & & & \\ ## 3 分析結果と考察 表 2 に作文ごとの修辞機能の出現と、メッセージ数、修辞機能の種類の数を示した。 ## 3.1 がんばった作文 がんばった作文では、1つをのぞいてすべての作文で【状況内回想】<3>が使用されており、自分の体験を回想して文にしていることがうかがえる。 がんばったことを表すのに、(1)や(2)のような過去形を用いる以外に、(3)のように現在形を使用しているものもある。いずれもがんばったことを述べているがその修辞機能及び脱文脈化指数は異なる。 (1)練習では、先生がきびしくて、こわくてつらかったけど、(命題\&状況内; 非参加\& 過去 $\rightarrow$状況内回想<3>)(中学年) (2)十一月に最後の大会がありました。(命題\&状況外 \& 過去 $\rightarrow$ 状況外回想<10>)(高学年) (3) わたしのがんばったことは、音楽会です。 (命題 \& 状況内; 非参加 \& 現在; 習慣的 - 恒久 $\rightarrow$ 観測<8>)(低学年) 学年層の違いを見ると、低学年のほうが個々の作文の中での【状況内回想】<3>の比率が高い。中学年の書いた作文の中には、全く【状況内回想】<3>を使用していない作文がある。「今、ぼくのがんばっていることは」という書き出しで始まるこの作文は、「がんばったこと」という題から、がんばっていることを表現して、つまり過去ではなく現在と未来で表現している点が特徴的である ${ }^{6)}$ 。 6)この作文の修辞機能と脱文脈化指数などの詳細は付録の表 4 に示している。 ## 3.2 夢作文 夢作文では、【計画】<4>が多く使用されている。 2.1 で述べたように、分析対象の「夢作文」には、将来の夢を書いたものと、就寝中にみた夢について書いたものがある。本研究の分析対象データでは、 15 本の夢作文のうち、就寝中に見る夢を書いたものが 1 本 (中学年)、就寝中の夢と将来の夢の両方を書いたものが 2 本(中・高学年各 1 本)で、他の 12 本は将来の夢について書いている。就寝中の夢を書いた 1 本は、17 のメッセージから成り、【状況内回想】 <3>と【状況外回想】<10>がそれぞれ 6 メッセージと $2 / 3$ を回想が占めているものの、「でもだれかはおぼえていません」【実況】<2>「その家は今はこわされてちがう家になっています。」【説明】<13>「今 9 さいになってもはあちゃん)からきらきととてもこわくなります。」【実況】<2>という他の修辞機能のバリエーションもあり、脱文脈化程度もさまざまで、単調ではない。 将来の夢と就寝中の夢の両方を書いた中学年の作文では、将来の夢について【計画】<4>【実況】<2> で述べ、次に最近よく見る夢を【自己記述】<7>で述べた後、「どうしてゆめを見るのか不し議になるので今度調べたいと思います」【計画】<4>と述べ、「もう一つなりたいゆめがあります。」【報告】<9>と再度将来の夢の話題を始めて、【状況内予想】<5>【実況】<2>【計画】<4>という展開で終わっている8)。 将来の夢を書いた低学年の作文の 1 つは、最後のメッセージ以外、各述部が「やりたいと思います」「やりたいです」「なってみたいです」「なってみたい」「かいたいです」「かいたいです」と、ほぼ 【計画】<4>で構成されている。また、別の低学年の作文では、【状況内予想】<5>で始まり、その後、その夢のために自分がどうしているかを【自己記述】 <7>で列挙している。いずれも単調に感じられる。 ## 3.3 使用されている修辞機能の異なり 表 3 に、各層の作文で使用されている修辞機能の種類の平均値を示した。それぞれの作文の中で使用されている修辞機能の種類は、中学年高学年が多く、低学年は少ない傾向にある。各作文の値は表 2 の右列に示している。夢作文で最も多い種類を用いていたのは、中学年  表 3 使用している修辞機能の種類(平均) の【実況】【状況内回想】【計画】【状況内予想】【自 己記述】【観測】【報告】【予測】【説明】の9つで、低学年では【状況内回想】【計画】【自己記述】【観測】【報告】の5つであった。図1を参照すると、これらの 5 つのうち 4 つは空間的距離のレベルが低い修辞機能であることがわかる。 がんばった作文では高学年の 2 つが最も多い 9 種類を用いていた。種類は、1つは夢作文の中学年と同じで、もう 1 つは【説明】の代わりに【状況外回想】を用いていた。低学年の最高は【実況】【状況内回想】【報告】【状況外回想】の 4 種類である。図 1 を参照すると、この 4 つは時間的距離のレベルが低い修辞機能であることがわかる。 今回の分析対象作文数が少ないことと、作文を構成する文の数が高学年中学年の方が多いことから、単純には比較できないが、このような修辞機能の異なりは作文の様子を知る一つの手掛かりになることが考えられる。 ## 4 おわりに 本発表では、テーマの異なる児童作文の修辞機能と脱文脈化指数の出現頻度を確認して、(1)テーマによる違いと学年による違いを検討し、(2) 特徴的な作文について修辞機能と脱文脈化指数の現れ方を検証することによって、児童作文の修辞機能と脱文脈化指数による評価の可能性を検討を行った。分析の結果、テーマによって時制にかかわる特徴がみられ、学年層による違いとしては、低学年において、使用する修辞機能に偏りがあることがうかがえた。今回は 30 作文のみのパイロットスタディであったが、同コーパス内の作文についてアノテーションして、全体の様子を明らかにするとともに、作文評価や作文指導への知見を提示していきたいと考えている。 ## 謝辞 本研究は JSPS 科研費 JP19K00588,JP20H01674 の助成を受けたものです。 ## 参考文献 [1]冨士原紀絵・宮城信・松崎史周. 児童生徒作文の基礎的研究: 児童生徒作文コーパスの構築と活用. お茶の水女子大学子ども学研究紀要, 4:9-20, jun 2016. [2]今田水穂宮城信. 作文コーパスを資料に児童・生徒の漢字使用・選択傾向と発達の実態を明らかにする一語彙情報つき作文コーパスの構築と学齢別語彙・漢字使用実態調査一. 漢字 ・日本語教育研究, 5:4-20, 2015. [3]岩田純一. 児童の心理学. Number 3. 有斐閣, 1995. [4]Carmel Cloran. Rhetorical units and decontextualisation: An enquiry into some relations of context, meaning and grammar. PhD thesis, University of Nottingham, 1994. [5]Carmel Cloran. Contexts for Learning. In In Pedagogy and the Shaping of Consciousness: Linguistic and Social Processes, pages 31-65. Cassell Academic London, 1999. [6]小磯花絵佐野大樹. 現代日本語書き言葉における修辞ユニット分析の適用性の検証 - 「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係一. 機能言語学研究, 6:59-81, 2011. [7]田中弥生. 児童・生徒作文の日本語修辞ユニット分析と教員評価の検討. In 言語資源活用ワークショップ発表論文集, volume 3, pages 91-104. 国立国語研究所, 2018. [8]宮城信・今田水穂. 『児童・生徒作文コーパス』の設計. 第 7 回コーパス日本語ワークショップ予稿集, (2):223-232, 2015. [9]佐野大樹. 日本語における修辞ユニットの方法と手順 ver.0.1.1一選択体系機能言語理論(システミック理論) における談話分析一(修辞機能編), 2010. [10]佐野大樹. 特集選択体系機能言語理論を基底とする特定目的のための作文指導方法について一修辞ユニットの概念から見たテクストの専門性. 専門日本語教育研究, (12):19-26, 2010. ## A 付録 表 4 がんばった作文中学年 (SF 発話機能 CE 中核要素 EO 現象定位) & 命題 & 状況内; 非参加 & 現在; 習慣的・恒久 & 観測 & 8 \\ 表 5 ゆめ作文中学年 (SF 発話機能 CE 中核要素 $\mathrm{EO}$ 現象定位) & 命題 & 状況内; 参加 & 未来; 意図的 & 計画 & 4 \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-7.pdf
# 日本語 BERT による否定要素認識についての分析 蘆田 真奈 平澤 寅庄 金子正弘 小町守 東京都立大学 \{ashida-mana, hirasawa-tosho, kaneko-masahiro\}@ed.tmu.ac.jp komachi@tmu.ac.jp ## 1 はじめに 言語を理解するさい、文中において否定を表す要素(否定要素)を正しく認識する能力は必要不可欠である。一方で、言語モデルにとっては否定要素が否定要素であるということは必ずしも自明ではない。日本語において否定を表す表現は「ない・ん・ ず」などがあるが、修辞技法や慣用句に含まれる 「ない・ん・ず」は否定要素として使用されないケー スも数多くあり、表層形の知識や構文の理解はもちろん、文脈の理解も必要とされる。 近年、自然言語処理では事前学習済み大規模ニューラル言語モデルが多くのタスクにて高い精度を出し、脚光を浴びている $[1,2]$ 。一方でニューラルネットワークを用いたアーキテクチャはブラックボックスなどとも言われ、その振る舞いの解釈は困難である。そのような背景から、ニューラルモデルの内部メカニズムがどれほど人間の言語に関する知識を獲得できているかを調べる研究 (Probing) が数多く提案されている $[3,4,5]$ 。これらの研究を通じて、現時点でのニューラル言語モデルの得手不得手についての新たな知見が得られつつある。 今回の研究ではニューラル言語モデルの中でも、特に Bidirectional Encoder Representations from Transformers (BERT) [1] がどの程度、否定要素を認識できるのかについて、日本語 BERT を用いて否定要素認識タスクを行うことで評価する。また、Probing タスクとして、日本語 BERT に否定要素がマスクされた文を与えた場合に、BERT が否定要素を予測できるか、及びできない場合に何と予測するかについて調査する。BERT による予測結果を分析することで、BERT が何を手がかりにして否定要素を認識しているかについて考察する。最後に、否定に関わる統語情報についての知識が獲得されているかについて、否定極性項目(Negative Polarity Items (NPIs)) と否定要素の関係性に着目して分析を行う。 ## 2 関連研究 日本語の否定コーパス日本語の自然言語処理において、否定要素に限定して行われた研究には松吉ら $[6,7]$ などがある。[6] は否定要素のアノテーションを付与したコーパスの作成についての報告である。[7]では [6] のコーパスをデータセットとし、否定要素があらかじめ検出されている文に対して統語情報を与えた上で否定焦点を検出するシステムを構築している。本稿では、否定焦点の検出ではなく否定要素の検出を日本語 BERT を用いて行うためにコーパスを用いる。 BERTを用いた英語の否定要素認識日本語 BERT を用いた否定要素認識こそ行われていないものの、英語ではいくつかの BERT を用いた否定要素認識の研究がある。多くは*SEM (Joint Conference on Lexical and Computational Semantics) の Shared Task での Sherlock データセット [8]もしくは医療分野のコーパス(the BioScope Corpus[9])を使用したタスクである。NegBERT [10] は否定要素と否定のスコー プのアノテーションがなされたコーパスで fine-tune された BERT であり、文を入力とし、否定要素を検出することができる。[11] は Conversational Question Answering (CoQA) タスクにおいて、NegBERT を用いて系列の否定要素を明示することでモデルの性能が上がることを報告している。 BERT の英語の否定の理解性能 BERT がどのようなメカニズムで色々なタスクにおいて良い性能を出すことができるのかについての研究が盛んに行われており、その研究の中には否定の理解に関するものもいくつかある。例えば、[12] や [13] では空欄補充タスクを用いて BERT が否定の働きについて捉えているかどうかを検証している。「Aが Xである。」、 と「AはXではない。」という文脈において、Xを空 欄とした場合にどちらの場合にも Xには A の上位概念(hypernym)を候補としてあげてしまうことから、BERT は否定が含まれた文脈では正しい推論ができていないと結論づけている。今回の研究では、肯定と否定文のペアを作成するのではなく、実際にコーパスに出現する文を用い、BERT が否定要素を正しく予測できるかについて検証する。 言語モデルの英語の NPIs についての分析 NPIs とは文の否定要素と共起することを必要とする項目のことであり、その制約ゆえ、言語学者の間では広く議論されてきた[14]。NPIs には自然言語処理の文脈では、NPIs が否定要素を伴わない場合、その文が非文法的になることを用いて、言語モデルに文の文法性を判断させることで言語モデルが NPIs に関わる統語的制約を学習しているかを検証している $[15,16]$ 。日本語の NPI の例としては『しか』などがあげられる。以下はしかが文法的である場合とそうでない場合の例である。 ・太郎は野菜『しか』食べない。 ・*太郎は野菜『しか』食べる。 ここで『しか』は Licensor と呼ばれる文の否定要素ないのスコープのなかに存在するときにのみ文法的である。 ## 3 否定要素認識 否定要素認識タスクは医療分野での言語処理 (Biomedical NLP)に端を発する [17]。自然言語処理における否定認識 (negation detection) は 2 段階のタスクからなる。まず、文中の否定要素 (negation trigger, negation cue)を検知する。日本語では「ない」や「ず」に当たる。次に、否定が及ぶ範囲を同定する。これは否定のスコープの認識 (negation scope detection, negation scope resolution)とも言われる。さらに、否定の焦点(focus of negation)は否定のスコープの中でも、特に否定されている要素のことをいう。否定の焦点検知についての研究は $[8]$ での Shared Task に関するものがある。今回の研究では否定要素の認識に取り組む。 ## 3.1 データセット 今回のタスクで使用するコーパス [6] は「現代日本語書き言葉均衡コーパス」 $(\mathrm{BCCWJ})^{1)}$ のコアデー タの新聞のうち Aグループを対象に否定要素と否定の焦点をアノテーションしたものである。 1) https://pj.ninjal.ac.jp/corpus_center/bccwj/ 図 1 BERT による否定要素認識 ・十七日まで選手にも協会関係者にも明かさない。[PN2f_00002] という例文において、否定要素は「ない」であり、否定の焦点は「十七日まで」である。また、否定のスコープは「十七日まで選手にも協会関係者にも明かさ」で表現される事象であると考えられる [6]。 ただし、今回の研究では否定要素のみに注目する。 このコーパスの全 2807 文のうち、 $80 \%$ を訓練デー タ、10\%を開発データ、 $10 \%$ 評価データとして用いた。コーパスの全文に対して mecab-ipadic-neologd を用いて単語分割を行った。これは使用した日本語 BERT の訓練時の分割方式と一致させるためである。ラベルはコーパスに従って付与した。 ## 3.2 否定要素認識器の作成方法 否定要素認識器の作成にあたっては、否定要素を neg、それ以外を neutral とラベル付けする系列ラべリングのタスクを設定し、日本語 BERT の fine-tune を行なった。今回、neutral 以外のラベルは複数のトークンにまたがっていないため、先頭や終わりをマークせず上述の 2 つのラベルのみを使用した。図 1 は BERT を用いた認識器及び入力のイメージである。BERT の中間層の上にランダムに初期化された出力層を重ね、系列ラベリングを訓練させた。 ## 3.3 実験 実験設定本稿では東北大が公開した日本語 BERT モデル2)を用いて実験を行った。BERT の dense layer と出力層の両方を fine-tune したモデル (fine-tuned)と BERT の embedding の重みを更新しないモデル(frozen)を用いた。訓練の epoch 数は 10 回とし、 $F_{1}$ スコアをモデル選択時の指標として、推論時には開発データの $F_{1}$ スコアが一番良いモデルを使用した。 実験結果図 1 は 5 回シードを変えて実験を行って得られた精度・再現率・ $F_{1}$ スコアの平均を示したものである。テストデータ内に「ない・なく・な 2) https://huggingface.co/cl-tohoku/bert-base-japanese かっ・なけれ・ぬ・ん・ず」は計 28 回出現し、そのうち neg ラベルが付与されていたのは 16 個であるので、どちらのモデルについても単純な表層形のみについて分類を行うよりは精度が高くなっている。 frozen モデルは fine-tuned と比べてわずかに性能が良く、これには fine-tuned モデルが過学習している可能性が考えられる。 ## 3.4 エラー分析 BERT は「違いない」「似ても似つかぬ」「暴力に暴力で向かってはいけない」「やる気をなくす人」などの否定として機能していない要素を否定と捉えるエラーを出していた。「違いない」「似ても似つかぬ」「いけない」のケースは慣用表現であり、「ない」が文否定として働いていないにも関わらず、 そのことが捉えられていないからだと考えられる。 このことから、BERT はトークンの一部が慣用表現の一部なのか、文の要素として機能しているのかを認識できていないということが示唆される。 一方で、否定を捉えられていないケースには「珍しくなかった」というケースがあり、5 回試行したうちの 1 度の試行で存在した。ただし、テストデー タには「なかっ」は 3 回出現していた。 ## 4 日本語 BERTによる否定要素予測 3 節の実験では fine-tune された日本語 BERT が否定要素を認識できるかについて検証した。この節では fine-tune を行っていない BERT が否定要素を正しく予測できるかについて分析する。これはニューラル言語モデルの Probing の研究で行われている、言語モデルをブラックボックスとみなし、異なる入力を与えた際の出力からモデルの性質を分析するというアプローチ $[18,16]$ の系譜を踏むものである。 ## 4.1 分析方法 まず 3 節の実験で用いたコーパスに含まれる 303 個の否定要素について、否定要素を含む文を抽出し、否定要素をマスクした文を BERT にインプットとして与え、BERT にマスクされたトークンを予測させた。予測に際しては Transformers から利用可能 な fillmaskpipeline ${ }^{3)}$ を利用した。予測されたトークンが不正解であった場合について分析する。 ## 4.2 分析結果 303 個の否定要素のうち、予測が不正解であったのは 66 個であった(付録 A)。 動詞との関連性不正解のうち、11 個について観察された事象は、BERT が「ない」と「ある」の両方に対して比較的高い尤度を与えているというものであった。以下はそのような例の一つである。 ・罪のある(正:ない)記者が次々死ぬのを見ると、戦争の意図がクリーンではないことがよく分かる」[PN3a_00002] 日本語においては「ある」という存在の動詞の否定形が「ない」であり、他の一般動詞の否定形のように「動詞の未然形+ない」の統語構造を持たず、動詞の活用形から接続を予測することが困難であることが誤答の理由のと考えられる。また、一般動詞の否定形は動詞の未然形に接続するが、同じく未然形に接続する助動詞である「せる」にも比較的高い尤度を付与していたケースもあった。統語構造の観点からは、一段活用の場合には未然形と連用形が同じであるために五段活用と比較してさらに多くの選択肢が存在することから、BERT にとっても困難である可能性がある。このように、動詞の接続から一意に否定が導かれない場合における曖昧性の解消のためには BERT がより正確に文脈を考慮する必要があるだろう。 否定の接頭辞次に多くみられた不正解の予測は否定の接頭辞を正しく予測することができていないという 16 の事象である。例えば、「就学児」の否定形は「不就学児」であるが BERT は「未就学児」であると予測した。これは「不就学」と比較して「未就学」という言葉が使われる頻度が高いからであると考えられる。また以下の例のように、「不可能」 を「ほとんど可能」と予測するなど、正反対の予測をする場合も観察された。 ・(前略)もはや民間まかせでは過剩債務処理はほとんど(正:不)可能ということだ。 [PN1b_00004] このことからも BERT は否定の働きを理解できていないことが考えられる。  加えて、「無得点」を「連続得点」「不干涉」を 「相互干涉」と予測していて、他の結びつきが強い名詞を選んで複合名詞を予測していると考えられる。ただし、「無得点」に関しては、直前に「依然・ まだ」という言葉がある場合には正しく予測することができ、これは BERT がマスクされたトークンの直前の文脈を考慮することができていることを示すものと考えられる。 ## 5 日本語 NPIs に関する分析 この節では日本語 NPIs についての分析を行う。先行研究で示した NPIs に関する研究ではデータセットを構築し、BERT に文法性を判断させていたが、ここでは既存のコーパスを使用し、以下のような方法を用いて分析を行う。 ## 5.1 分析方法 まず 3 節で用いたコーパスのうち、「ない」を含む文を抽出し、その後、日本語の NPIs である副詞の 「さほど・それほど・そんなに・ろくに・だてに・二度と・あまり・しか・そんな・ろくな」などを含む文とそうでない文に分類した。用いた文全体に「ない」は 214 個存在しており、そのうち 43 個が否定の機能を持たない「ない」であり、 171 個が否定要素の「ない」であった。否定要素の「ない」のうち、 NPI と共起するものは 8 つであり、そのうちの 5 つが「しか」との共起であり、残りの 3 つはそれぞれ 「そんな・そんなに・それほど」との共起であった。 3.4 で述べたように、コーパスには否定として機能していない「ない」が存在する。BERTが NPIs に関する統語的制約についての知識を持っているとすれば、中間層のレベルで、否定として機能していない「ない」と明確に区別されているのではないかと考えた。 そのことを検証するため、抽出した各文の「ない」 というトークンの BERT の中間層の第 1 層を t-SNE アルゴリズムを用いて可視化した。ラベルは neutral の「ない」(neutral)、negの「ない」で NPI と共起している場合 (neg_npi)、negの「ない」でNPI と共起しない場合(neg_non_npi)である。 ## 5.2 分析結果 図 2 は日本語 BERT の第 1 層目の中間層を $\mathrm{t}$-SNE で可視化したものである。右の方に否定の「ない」 のクラスターができているように見えるが、NPI と 図 2 異なるラベルを付与された「ない」の分布 共起した否定要素の「ない」がクラスターになっていることは観察できなかった。このことから文中の NPI の存在と否定要素の結びつきに関しては特別な情報を共有していないことが示唆される。 また、[3]によれば BERT は深い層より浅い層で表層的・統語的な情報を学習しており、[19]によれば、浅い層に比べて深い層で文脈依存の情報が扱われると報告されていて、実際により深い層においては分布にばらつきが存在していた(付録 B)。 今後は日本語 NPIs を用いて非文と文法的な文のペアを用意し BERT に文の尤度を出力させるなどしてより詳細に検証していきたい。 ## 6 おわりに 本稿では事前学習済みニューラル言語モデル BERT の否定要素認識性能に着目した。今後は否定要素だけでなく、否定のスコープをアノテーションすることにより BERT がスコープを同定できるかについても詳しく検証していきたい。 否定要素の予測については、ある熟語に対して反意語を作る際に正しい接頭辞を予測できるかどうかで BERT を評価するタスクなどを行い、BERT が否定の接頭辞についてどのような傾向を示すかについても研究を進めていきたい。また、BERTが動詞の接続などの統語情報以外のどのような知識を用いて否定を認識しているのかについても研究を進めていきたい。 日本語 NPIs については、他言語での先行研究に準じ、データセットの構築を行って BERT による文法性判断をもとに BERT の統語構造に関連する知識についての研究を進めていきたい。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [3] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does BERT learn about the structure of language? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3651-3657, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Ian Tenney, Dipanjan Das, and Ellie Pavlick. BERT rediscovers the classical NLP pipeline. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4593-4601, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, and Noah A. Smith. Linguistic knowledge and transferability of contextual representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1073-1094, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] 松吉俊. 否定の焦点情報アノテーション. 自然言語処理, Vol. 21, No. 2, pp. 249-270, 2014. [7] 大槻諒, 松吉俊, 福本文代. 否定の焦点コーパスの構築と自動検出器の試作. 言語処理学会第 19 回年次大会論文集, pp. 936-939, 2013. [8] Roser Morante and Eduardo Blanco. *SEM 2012 shared task: Resolving the scope and focus of negation. In *SEM 2012: The First Joint Conference on Lexical and Computational Semantics - Volume 1: Proceedings of the main conference and the shared task, and Volume 2: Proceedings of the Sixth International Workshop on Semantic Evaluation (SemEval 2012), pp. 265-274, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [9] György Szarvas, Veronika Vincze, Richárd Farkas, and János Csirik. The BioScope corpus: annotation for negation, uncertainty and their scope in biomedical texts. In Proceedings of the Workshop on Current Trends in Biomedical Natural Language Processing, pp. 38-45, Columbus, Ohio, June 2008. Association for Computational Linguistics. [10] Aditya Khandelwal and Suraj Sawant. NegBERT: A transfer learning approach for negation detection and scope resolution. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 5739-5748, Marseille, France, May 2020. European Language Resources Asso- ciation. [11] Ieva Staliūnaite and Ignacio Iacobacci. Compositional and lexical semantics in RoBERTa, BERT and DistilBERT: A case study on CoQA. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7046-7056, Online, November 2020. Association for Computational Linguistics. [12] Allyson Ettinger. What BERT is not: Lessons from a new suite of psycholinguistic diagnostics for language models. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 34-48, 2020. [13] Nora Kassner and Hinrich Schütze. Negated and misprimed probes for pretrained language models: Birds can talk, but cannot fly. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7811-7818, Online, July 2020. Association for Computational Linguistics. [14] 片岡喜代子. 日本語否定文の構造: かき混ぜ文と否定呼応表現, 第 18 巻. くろしお出版, 2006. [15] Alex Warstadt, Yu Cao, Ioana Grosu, Wei Peng, Hagen Blix, Yining Nie, Anna Alsop, Shikha Bordia, Haokun Liu, Alicia Parrish, Sheng-Fu Wang, Jason Phang, Anhad Mohananey, Phu Mon Htut, Paloma Jeretic, and Samuel R. Bowman. Investigating BERT's knowledge of language: Five analysis methods with NPIs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2877-2887, Hong Kong, China, November 2019. Association for Computational Linguistics. [16] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [17] Roser Morante, Anthony Liekens, and Walter Daelemans. Learning the scope of negation in biomedical texts. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 715-724, Honolulu, Hawaii, October 2008. Association for Computational Linguistics. [18] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5523-5539, Online, July 2020. Association for Computational Linguistics. [19] Kawin Ethayarajh. How contextual are contextualized word representations? comparing the geometry of BERT, ELMo, and GPT-2 embeddings. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 55-65, Hong Kong, China, November 2019. Association for Computational Linguistics. ## A 否定要素の種類とその頻度 4 節の実験において、予測させたトークンごとに頻度とその不正解個数をまとめたものが以下の表である。 ## B t-SNE による BERT 中間層の可視化 以下は 5 節の実験において異なるラベルを付与された「ない」の日本語 BERT の中間層の第 2 (左上)、5(右上)、7 (左下)、12(右下)層目の重みを t-SNE で可視化した様子である。 図 3 BERT 中間層における異なるラベルが付与された「ない」の分布
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-8.pdf
# Indexicals in Chinese Zhuoyun Wu†, Sumiyo Nishiguchił, Lu Guo*, Yingxuan Wang* Graduate School of Commerce, Otaru University of Commerce ${ }^{\text {†** }^{* *}}$ Center for Language Studies, Otaru University of Commerce: wu304728096@163.com ${ }^{\dagger}$ nishiguchi@res.otaru-uc.ac.jp ## 1 Introduction This is a research about monsters, the context-change functions, and the words that are indexicals like tense adverbs, pronouns, etc. in Chinese. There are many researchers who wrote about indexicals in their own languages, but there is not a lot of research on Chinese. This paper discusses the indexical words in Chinese by giving some examples. ## 2. Pronouns Like English, pronouns can also cause ambiguity in different contexts in Chinese. Normally, as in the example in (1), the first person indexical wo "I" ambiguously refers either to the speaker or the matrix subject Li. (1) Zuotian Li shuo wo qiantian 昨天, 李说我前天 yesterday Li said I the day before yesterday Zhong-de hua kai-le 种的 planted 花 $\quad$ flower bloomed "Yesterday, Li said the flower I planted the day before yesterday bloomed." $\sqrt{ }$ The flower was planted by Li. $\sqrt{ }$ The flower was planted by I. The agent wo "I" is shifted in the scope of shuo "say." (2) Li shuo ni zuotian zhongde hua kai-le 李说你昨天种的花开了。 $\mathrm{Li}$ said you yesterday planted flower bloomed "Li said the flower you planted yesterday bloomed." $\sqrt{ } \mathrm{Li}$ is talking to me ---The flower was planted by me. $\sqrt{ } \mathrm{Li}$ is talking to Ge ---The flower was planted by Ge. The interpretation of the indexical $n i$ "you" depends on the context and it can be the person Li talking to, and it has two different meanings. (3) Banzhang shuo ta bei tongzhi le mingtian 班长说他被通知了明天 monitor said he was informed tomorrow qu nide bangongshi kaihui 去你的办公室开会。 go your office meeting "The monitor said that he was informed to go to the meeting at your office tomorrow." In English, the pronoun he is ambiguous between a bound and free pronouns, that is, he can be the monitor or someone else salient in the context. In Chinese, ta 他 "he" also means monitor or someone else dominated by the conversation. (3) Meimei shuo ta/ta zuotian zhong-de 妹妹 ${ }_{i}$ 说她 $\mathrm{i}_{\mathrm{i}} /$ 他 $_{\mathrm{j}}$ 昨天种的 sister said she / he yesterday planted hua kaile 花开了。 flower bloomed. "My sister said the flower she/he planted yesterday bloomed." When ta "he" is used in the sentence: $\sqrt{ }$ The flower was planted by Ge. When $t a$ "she" is the pronoun in the sentence (3): $\sqrt{ }$ The flower was planted by Wang. $\sqrt{ }$ The flower was planted by my sister. The subject sister can only have a bound pronoun she. So, he is not ambiguous. The sentence with he has only one meaning. On the other hand, she is ambiguous and can be bound by the agent my sister: The personal pronouns you and my are shiftable. The interpretation of my depends on you. If [you] means [speaker], then [my] means [Li]; If [you] means [Wang], then [my] means [speaker]: ## 3. Tense Adverbs (5) Zuotian Li shuo wo qiantian 昨天, 李说我前天 Yesterday Li said I the day before yesterday zhongde hua kaile 种的花开了 planted flower bloomed "Yesterday, Li said the flower I planted the day before yesterday bloomed." In English, tense adverbs, like yesterday, the day before yesterday, tomorrow etc. are not shiftable even when there is another tense adverb in the sentence. In Chinese, in (5), qiantian "the day before yesterday" can only mean "two days ago from now", and can not mean "two days ago from 'yesterday'. $\sqrt{ }$ The flower was planted 2 days ago (from now) * The flower was planted 3 days ago (from now) (6) Banzhang shuo ta bei tongzhi-le mingtian monitor said he was informed tomorrow qu ni-de bangongshi kaihui 去你的办公室开会。 go your office meeting Even though, in English, tomorrow cannot be shifted, in Chinese the reference of 明天 "tomorrow" is dominated by the timing of conversation. (7) Li gangcai shuo Wu xianzai dei qu 李刚才说武现在得去 Li just said $\mathrm{Wu}$ now have to go to laoshi-de bangongshi 老师的办公室 teacher's office. "Li just said Wu have to go to teacher's office now." $\sqrt{ }$ Wu have to go to teacher's office 3 minutes ago. $\sqrt{ }$ Wu have to go to teacher's office right now. Now is shifted by just in (7). Just means a past time, but not a very long time ago, i.e., 3 minutes ago. In contract, now means the time speaker said this sentence. (8) Li shangzhouyi zaoshang shuo ta xianzai 李上周一早上说他现在 Li last Monday morning said he now zai da lanqiu 在打篮球 Is playing basketball. "Last Monday morning, Li said he was playing basketball now." $\sqrt{ }$ Li was playing basketball last Monday’s morning. * Li is playing basketball now. Now only means last Monday morning ## 4. Location (9) $\mathrm{Li}$ shuo ta zuotian zai zhe zhongde 李说他昨天在这种的 Li said he yesterday here planted Hua kai-le 花开了 flower bloomed. "Li said the flower he planted here bloomed." $\sqrt{ }$ Li planted flower in my balcony. * Li planted flower in his balcony. Here can only mean the place the speaker is standing now. (If the speaker standing in my balcony now, the conversation happened in Li's balcony). ## 5. Conclusion: For pronouns, words like $I$, you, me, he, his, can be ambiguous and determined by context in Chinese. As for tense adverbs, words like yesterday, tomorrow, are shiftable when there is another tense adverb in the sentence may be shifted in Chinese. Location adverbs like here and there are shiftable in Chinese. ## References [1] Anand, Pranav and Andrew Nevins. 2004. Shifty Operators in Changing Contexts. R. Young (ed), SALT XIV 20-37, Ithaca, 2004. [2]Chierchia, Gennaro. 1989. Anaphora and Attitudes De Se. R. Bartsch, J. van Benthem, and B. van Emde (eds.) Language in context. Dordrecht: Foris. [3]Cresswell, Maxwell J. 1985. Structured meanings: The semantics of propositional attitudes. MIT Press. [4] Frajzyngier, Zygmunt. 1993. A grammar of Mupun. Dietrich Reimer Verlag. [5]Heim, Irene, and Angelika Kratzer. 1998. Semantics in generative grammar. Blackwell. [6]Hyman, Larry. 1979. Aghem Grammatical Structure. Southern California Occasional Papers in Linguistics 7 [7]Yang, Lili. 2020. The Change of "I" Perspective and Empathy in Indirect Speech. Soochow University College of Arts Central China Academic 2020,13(02)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P4-9.pdf
# 属性情報を追加した事前学習済みモデルの ファインチューニング 笹沢裕一 岡崎直観 東京工業大学 \{yuichi.sasazawa[at]nlp.c, okazaki[at]c\}.titech.ac.jp ## 1 導入 感情分類,要約,文章生成などの幅広い言語処理タスクにおいて,ユーザ ID や製品 ID などの属性情報を活用することでタスクの性能が向上することが報告されている $[1,2,3]$. 感情分類の既存研究では,LSTM や CNN モデルに対して注意機構 $[4,5,6,7,8]$ やメモリーネットワーク $[9,10,11,2]$,重み行列 $[12,13]$ などで属性情報を組み込んでいる。近年, GPT [14], BERT [15], BART [16] などの事前学習済みモデルに対して,様々な言語処理タスクでファインチューニングするアプローチが成功を収めている。そこで,本研究は事前学習済みモデルに属性情報を組み込む手法を探求する.タスクとして感情分類と要約に取り組み,それぞれのタスクで事前学習済みモデルに属性情報を組み込んだモデルを提案する。提案モデルには事前学習済みのパラメータと追加要素に対応する未学習のパラメータの 2 種類が混在する.タスクの学習データでファインチュー ニングをするときは,後者のパラメータを効率よく学習することが重要であるが,前者のパラメータを更新しすぎると破滅的忘却に陥る.そこで,事前学習モデルと追加要素のパラメータに対して異なる学習率を設定する戦略を提案する.評価実験では,提案手法が感情分類タスクと要約タスクにおいて既存手法の性能を大きく上回り,最高性能の結果を示すことを報告する.また,追加要素のパラメータに対して異なる学習率を設定する戦略は,シンプルでありながら性能向上に大きく貢献することを示す. ## 2 手法 ## 2.1 感情分類モデル 提案する感情分類モデルの概要を図 1 に示す。標準的な文書分類タスクでは $n$ 単語の単語列 図 1: BERT モデルを使用した感情分類モデル $x=\left(w_{1}, \ldots, w_{n}\right)$ を受け取り, ラベル $y \in \mathcal{y} ( y$ は $l$種類のラベルから構成されるラベル集合)を予測する. 本タスクでは $m$ 種類のカテゴリ属性 $\left(c_{1}, \ldots c_{m}\right)$ も与えられる. 本研究の感情分類データセットではユーザ ID と製品 ID の 2 種類のカテゴリ属性が与えられるため, $m=2$ である. 我々は感情分類タスクの事前学習済みモデルとして BERT モデル [15] を使用する. BERT モデルは一連のトークン $\left([\mathrm{CLS}], w_{1}, \ldots, w_{n},[\mathrm{SEP}]\right)$ を入力として受け取り,各入力トークンに対応する隠れ状態 $\left[h_{\mathrm{CLS}}, h_{1}, \ldots, h_{n}, h_{\mathrm{SEP}}\right]$ を生成する. 既存研究に倣い, $h_{\mathrm{CLS}} \in \mathbb{R}^{d}$ を入力の分散表現として使用する(d は次元数). 属性情報をモデルに考慮させる様々な手法を比較したところ,テキスト分散表現と属性埋め込み表現を結合する手法が最も優れた性能を示すことが分かった。つまり,提案モデルではテキストの予測ラベルを次式により算出する。 $ \begin{aligned} & a_{k}=\operatorname{LayerNorm}\left(\operatorname{emb}\left(c_{k}\right)\right) \\ & y=\operatorname{Softmax}\left(W\left[h_{\mathrm{CLS}} ; a_{1} ; \ldots ; a_{m}\right]+b\right) \end{aligned} $ 図 2: BART モデルを使用した要約モデル emb は埋め込み層,LayerNorm は $\beta, \gamma$ をパラメータとして持つ Layer Normalization 層による正規化処理であり $a_{k} \in \mathbb{R}^{d_{\mathrm{a}}}$ である. $W \in \mathbb{R}^{l \times\left(d+d_{\mathrm{a}} m\right)}$ と $b \in \mathbb{R}^{l}$ は線形層のパラメータ,Softmax はソフトマックス関数, [.;.] はべクトルの結合である。我々の提案モデルではテキスト分散表現 $h_{\text {CLS }}$ と各属性の埋め込み表現 $\left[a_{1}, \ldots, a_{m}\right]$ の結合を後続の線形層に与えることで最終的な予測べクトル $y$ を計算する。 ## 2.2 要約モデル 要約モデルの概要を図 2 に示す。要約タスクでは $n$ 単語の単語列 $x=\left(w_{1}, \ldots, w_{n}\right)$ を受け取り, 要約単語列を予測する. テキスト分類と同様に $m$ 種類のカテゴリ属性 $\left(c_{1}, \ldots c_{m}\right)$ が与えられ $m=2$ である. 本研究では要約タスクの事前学習モデルとして BART モデル [16] を使用する.入力テキストの埋め込み表現を $\left[e_{\mathrm{BOS}}, e_{w_{1}}, \ldots, e_{w_{n}}, e_{\mathrm{EOS}}\right] \in \mathbb{R}^{d \times(n+2)}$ とする ( $e_{w}$ は単語 $w$ の埋め込み表現である). 通常の要約タスクではこのテキスト埋め込み表現を BART エンコーダに入力することにより要約モデルを学習する. 提案モデルでは,属性情報を考慮するためにテキスト埋め込みと属性埋め込みをエンコーダに入力する. つまり,感情分類モデルと同様の手法で獲得した属性埋め込み $\left[a_{1}, \ldots, a_{m}\right] \in \mathbb{R}^{d \times m}$ を使用 ᄂ, $\left[e_{\mathrm{BOS}}, e_{w_{1}}, \ldots, e_{w_{n}}, e_{\mathrm{EOS}}, a_{1}, \ldots, a_{m}\right] \in \mathbb{R}^{d \times(n+2+m)}$ を BART エンコーダに入力する. ## 2.3 追加事前学習 既存研究はターゲットコーパス上での追加の事前学習により,BERT モデルを用いたテキスト分類タスクの性能がさらに向上したと報告してい る $[17,18]$. 要約タスクにおいても事前学習済みモデルの学習において追加の事前学習がモデルの性能の向上に貢献すると報告されている [19]. これらの研究に倣い,ファインチューニングの前にそれぞれのタスクの訓練データを用いてマスクトークンの予測による事前学習を行う. ## 2.4 複数の学習率の使用 我々のモデルは事前学習済みモデルのパラメータと, 追加要素に含まれる未学習のパラメータから構成される. 感情分類タスクでは (emb, $\beta, \gamma, W, b)$ が追加要素に含まれる未学習のパラメータである.多くの機械学習モデルではモデル全体に一律の学習率(オプティマイザに与える初期学習率)を設定して訓練を行っている。しかし,事前学習済みのパラメータと追加要素のパラメータの両方に対して一律の学習率を用いて学習を行うことは不適切である可能性がある。つまり,高い学習率を用いてモデル全体を訓練した場合,事前学習済みモデルは壊滅的忘却に陥る。一方,低い学習率を用いた場合は追加要素のパラメータを十分に訓練できない. この問題に対処するために,図 1,2 に示すように事前学習済みモデルと追加要素のパラメータに対して異なる学習率を使用する。つまり,我々は追加要素には $1 \times 10^{-3}$ のような高い学習率を使用し,事前学習モデルには $1 \times 10^{-5}$ のような低い学習率を使用する. 後に実験で示すように,2 種類の学習率を使用するこの戦略は事前学習済みモデルに追加要素を組み込んだモデルの性能を大きく改善する。 パラメータごとに異なる学習率を用いるというアイデア自体は様々な研究で提案されている. Adagrad [20] や Adam [21] などのオプティマイザはそれぞれのパラメータが受けた勾配に基づいて個別の学習率を設定しているが,一律の初期学習率ではモデルの最適化に限界がある. Sun ら [17] は BERT モデルの層ごとに複数の学習率を使用する戦略を提案しているが,追加要素に対しては BERT モデルと等しい低い学習率を用いている。 ## 3 実験 ## 3.1 実験設定 ハイパーパラメータ設定,既存手法の説明,デー タセットの統計を含めたより詳細な設定は付録 $\mathrm{A}$ を参照されたい,それぞれのモデルにおいて追加事前 表 1: 感情分類タスクの実験結果 表 2: 要約タスクの実験結果 学習と複数の学習率を使用する手法を試し,モデルの性能に対する影響を確認する。 感情分類 3 種類のレビューデータセット: IMDB,Yelp 2013,Yelp2014 [1]を用いた。分類のターゲットはレビュースコアであり,IMDB は 1~ 10 の 10 種類, Yelp では 1 5 の 5 種類である. カテゴリ属性としてレビューを記載したユーザー の ID と,レビューの対象となる製品の IDを使用した. 事前学習モデルは BERT モデルとして RoBERTa $_{\text {BASE }}$ [22] を使用した. 既存研究と同様に分類の正解率と二乗平均平方根誤差 (RMSE) を報告する. BERT(属性なし)はテキストのみを BERT モデルに入力して分類を行うモデルであり,このモデルにおいても複数の学習率を試した. つまり, 追加要素である線形層の学習率を, BERT モデルに対する学習率よりも高い値に設定した。要約データセットは Amazon のレビューデー タ [2]を使用した. 要約のターゲットはレビューのタイトルである. 感情分類タスクと同様に,ユーザ ID と製品 ID がカテゴリ属性として与えられる。事前学習モデルは $\mathrm{BART}_{\mathrm{BASE}}$ を使用した. 既存研究と同様に Rouge-1, Rouge-2, Rouge-Lを報告する. ## 3.2 実験結果 表 1 は感情分類タスクにおける実験結果である.我々の提案した BERT ベースの手法が既存手法の結果を大きく上回り, 最高性能の結果を達成している. また,複数の学習率を使用する戦略によってモデルの性能が大きく向上している。一方,属性情報を使用せずにテキストのみを使用して BERT モデルで分類を行う場合は,複数の学習率を設定してもモデルの性能をほとんど向上させることができない. この結果より,複数の学習率を使用する戦略は属性情報を事前学習済みモデルと組み合わせて使用する際に特に有用であることが分かる。また,追加事前学習は属性情報の有無に関わらずモデルの性能を向上させていることが確認できる. 表 2 は要約タスクにおける実験結果である. 要約タスクにおいても事前学習済みモデルをべースとした手法が最高精度を達成している。また,感情分類タスクと同様に,複数の学習率を使用する手法と追加事前学習も性能の向上に寄与していることを確認できる. 特に,複数の学習率を設定することで Rouge スコアの大幅な上昇が見られる. 図 3: BERT モデルの学習率と正解率の関係 図 4: 追加要素の学習率と正解率の関係 ## 3.3 学習率と正解率の関係 図 3 は感情分類データセットの Yelp2013において, 追加要素の学習率を $1 \times 10^{-3}$ に固定し, 事前学習済み BERT の学習率のみを変化させた時の正解率の変化を示したものである.学習率を高くし過ぎると破滅的忘却もしくはパラメータの発散が発生し,正解率が低下する。一方,学習率を低くし過ぎた場合もパラメータを十分に学習できず,正解率が低下する. 図 4 は BERT の学習率を $1 \times 10^{-5}$ に固定し,追加要素の学習率のみを変化させた時の正解率の変化を示したものである. 追加要素の学習率が低いと十分に学習が行われず,正解率が低下することが分かる。これらの結果より,事前学習済みのパラメー タと追加要素のパラメータのそれぞれに対して学習に最適な学習率が存在し, 複数の学習率の使用がモデルの訓練において重要であることが分かる. ## 3.4 パラメータの変化量 学習率の設定によるモデルのパラメータに対する影響を確認する。事前学習済みモデルの BERT と追加要素のそれぞれに対して,パラメー タの初期状態からの変化量の絶対值の平均值 $\delta_{t}=\frac{1}{|P|} \sum_{p \in P}\left.\|p_{t}-p_{0}\right.\|$ を一定ステップごとに記録する. ただし $P$ は対象とする要素の全てのパラメータ集合, $p_{t}$ は訓練中の $t$ ステップ目におけるパラメー タ $p$ の值である。一律の学習率を使用する設定ではモデル全体の学習率を $1 \times 10^{-5}$ に設定した. 複数の学習率を使用する設定では,BERT モデルの学習率 図 5: BERT モデルのパラメータ変化量 図 6: 追加要素のパラメータ変化量 を $1 \times 10^{-5}$ に,追加要素の学習率を $1 \times 10^{-3}$ に設定した. つまり,BERT モデルの学習率は両方の設定で固定であり,追加要素の学習率のみが異なる. 図 5 は Yelp2013 データセットにおける BERT モデルのパラメータ変化量であり,BERT モデルに対する学習率が一定の場合は追加要素の学習率に関わらず,パラメータの変化量はほとんど変化しないことが分かる。一方,図 6 は追加要素のパラメータ変化量であり,追加要素の学習率を低く設定するとパラメータの変化量が小さくなることが分かる.つまり,一律の低い学習率では追加要素のパラメータを十分に最適化できず,それがモデルの性能向上の足枷になると推測される。 ## 4 結論・今後の課題 本研究では事前学習済みモデルに対して属性情報を組み込むための手法を探求した。感情分類タスクと要約タスクのそれぞれにおいて属性情報を組み込んだ提案手法は,既存手法の性能を大きく上回り,最高性能を達成した。また,追加要素のパラメータに対して異なる学習率を設定する戦略は,性能向上に大きく寄与することを示した. 今後は,属性情報とテキストの相互作用を考慮できるさらに性能の高いモデルの検討し,他の言語処理タスクにおいても事前学習済みモデルと複数の学習率を用いた手法が性能の向上に寄与するか実験を重ね,性能向上の要因を更に分析したい. ## 謝辞 本研究は JSPS 科研費 $19 \mathrm{H} 01118$ の助成を受けた. ## 参考文献 [1]Duyu Tang, Bing Qin, and Ting Liu. Learning semantic representations of users and products for document level sentiment classification. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1014-1023, 2015. [2]Hui Liu and Xiaojun Wan. Neural review summarization leveraging user and product information. In Proceedings of the 28th ACM International Conference on Information and Knowledge Management, CIKM '19, p. 2389-2392, 2019. [3]Li Dong, Shaohan Huang, Furu Wei, Mirella Lapata, Ming Zhou, and Ke Xu. Learning to generate product reviews from attributes. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 623-632, 2017. [4]Huimin Chen, Maosong Sun, Cunchao Tu, Yankai Lin, and Zhiyuan Liu. Neural sentiment classification with user and product attention. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1650-1659, 2016. [5]Dehong Ma, Sujian Li, Xiaodong Zhang, Houfeng Wang, and $\mathrm{Xu}$ Sun. Cascading multiway attentions for document-level sentiment classification. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 634-643, 2017. [6]Reinald Kim Amplayo, Jihyeok Kim, Sua Sung, and Seungwon Hwang. Cold-start aware user and product attention for sentiment classification. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2535-2544, 2018. [7]Zhen Wu, Xin-Yu Dai, Cunyan Yin, Shujian Huang, and Jiajun Chen. Improving review representations with user attention and product attention for sentiment classification. In Proceedings of the Thirty Second AAAI Conference on Artificial Intelligence, pp. 5989-5996, 2018. [8]J. Zhang and C. Chow. Moca: Multi-objective, collaborative, and attentive sentiment analysis. IEEE Access, Vol. 7, pp. 10927-10936, 2019. [9]Zi-Yi Dou. Capturing user and product information for document level sentiment analysis with deep memory network. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 521-526, 2017. [10]Yunfei Long, Mingyu Ma, Qin Lu, Rong Xiang, and ChuRen Huang. Dual memory network model for biased product review classification. In Proceedings of the 9th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, pp. 140-148, 2018. [11]Zhigang Yuan, Fangzhao Wu, Junxin Liu, Chuhan Wu, Yongfeng Huang, and Xing Xie. Neural review rating prediction with user and product memory. In Proceedings of the 28th ACM International Conference on Information and Knowledge Management, p. 2341-2344, 2019. [12]Jihyeok Kim, Reinald Kim Amplayo, Kyungjae Lee, Sua Sung, Minji Seo, and Seung-won Hwang. Categorical metadata representation for customized text classification. Trans- actions of the Association for Computational Linguistics, Vol. 7, pp. 201-215, 2019. [13]Reinald Kim Amplayo. Rethinking attribute representation and injection for sentiment classification. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5602-5613, 2019. [14]Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. Technical report, 2018. [15]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, 2019. [16]Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [17]Chi Sun, Xipeng Qiu, Yige Xu, and Xuanjing Huang. How to fine-tune bert for text classification? In Maosong Sun, Xuanjing Huang, Heng Ji, Zhiyuan Liu, and Yang Liu, editors, Chinese Computational Linguistics, pp. 194-206, 2019. [18]Alexander Rietzler, Sebastian Stabinger, Paul Opitz, and Stefan Engl. Adapt or get left behind: Domain adaptation through BERT language model finetuning for aspect-target sentiment classification. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4933-4941, 2020. [19]Xingxing Zhang, Furu Wei, and Ming Zhou. HIBERT: Document level pre-training of hierarchical bidirectional transformers for document summarization. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5059-5069, 2019. [20]John Duchi, Elad Hazan, and Yoram Singer. Adaptive subgradient methods for online learning and stochastic optimization. Journal of Machine Learning Research, Vol. 12, No. 61, pp. 2121-2159, 2011. [21]Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, International Conference on Learning Representations, 2015. [22]Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXiv preprint, Vol. arXiv:1907.11692, p. (15 pages), 2019. [23]Nitish Shirish Keskar, Bryan McCann, Lav R. Varshney, Caiming Xiong, and Richard Socher. CTRL: A conditional transformer language model for controllable generation. arXiv preprint, Vol. arXiv:1909.05858, p. (18 pages), 2019. 表 3: データセットの統計 ## A 詳細な実験設定 データセットの統計を表 3 に示す. オプティマイザとして Adam オプティマイザ [21]を使用し, $\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=10^{-6}, \mathrm{~L} 2$ 正則化係数は 0.01 である. 学習率は訓練ステップ数の最初の $6 \%$ でウォームアップさせ,その後線形に減衰させた. ドロップアウト率は 0.1 , 属性埋め込みを含めた全ての次元数は 768 である. つまり, $d=d_{\mathrm{a}}=768$ である. ファインチューニングでは両タスクにおいてバッチサイズを 8 , 入力テキストの最大トークン数を 512 に設定した. 入力テキストが 510 トークン1) より長い場合は Sun ら [17] の手法に倣い,最初の 128 トークンと最後の 382 トークンを抽出し,これを大力テキストとして使用した. 感情分類 BERT モデルの学習率は $1 \times 10^{-5}$, 追加要素の学習率は $1 \times 10^{-3}$ を設定し, 一律な学習率を使用する設定では $2 \times 10^{-5}$ を使用した. 追加事前学習ではバッチサイズを 32 , 学習率を $5 \times 10^{-5}$, 入力テキストの最大トークン数を 128 , エポック数を 20 に設定した. エポック数は $\{2,3,4,5\}$ の候補の中から最適な值を探索し, IMDB, Yelp 2013 では 3 回, Yelp 2014 では 2 回のエポック数を使用した. 以下に既存手法を示す. CMA [5] はテキストエンコーダとして階層的な LSTM を使用しており,2 段階の注意機構を使用してカテゴリ属性を組み込んでいる。 RRP-UPM [11] はテキストエンコーダとして LSTM と CNNを組み合わせた階層的なモデルを使用している。また,メモリーネットワーク機構を使用して獲得した属性埋め込み表現を注意機構によってエンコーダに組み込んでいる。 MOCA [8] は注意機構と多層パーセプトロンを使用し, LSTM モデルによって獲得されたテキスト分散表現と属性埋め込みの相互作用を捉えている。ま  表 4: 各追加要素に対する高い学習率による影響 た,損失関数としてレビュースコアの分類による損失と回帰による損失の和を使用している. 要約 BART モデルの学習率は $2 \times 10^{-5}$, 追加要素の学習率は $4 \times 10^{-3}$ を設定し, 一律な学習率を使用する設定では $1 \times 10^{-4}$ を使用した. 追加事前学習ではバッチサイズを 16 , 学習率を $2 \times 10^{-5}$, 最大トークン数を 128 ,エポック数を 20 に設定した. エポック数は $\{2,3,4,5\}$ の候補の中から最適な値を探索し, 2 回のエポック数を使用した. 要約生成時のビームサイズは 2 , 生成要約長に対するペナルティ (length penalty) は 1.3, 同じ単語の繰り返しに対するペナルティ (repetition penalty) [23] は 3.0 である. 以下に既存手法を示す. AttrEnc [2] は属性埋め込みとテキスト埋め込みの結合を LSTM エンコーダに入力することで属性情報を組み込んでいる。 MemAttr [2] は属性情報をメモリーネットワークで埋め込み, Pointer-generator 機構により属性埋め込みをLSTM モデルに組み込んでいる。 ## B 追加要素に対する高い学習率の 使用による影響 表 4 は感情分類データセットの Yelp2013 におい $\tau$, 追加要素 (属性埋め込み層, 正規化層, 線型層) の一部に対して高い学習率 $\left(1 \times 10^{-3}\right)$, その他の要素に対しては低い学習率 $\left(1 \times 10^{-5}\right)$ を設定した時の性能を示したものである. 全ての追加要素について,高い学習率を使用することで正解率が向上することが確認できる. しかし, 一つの要素の学習率を高くしただけでは正解率の向上は小さく, 全ての追加要素に対する学習率を高くした場合の正解率が最も高い.この結果より, 全ての追加要素のパラメータは高い学習率で訓練する必要があり,それによってモデル全体の十分な訓練が可能であることが分かる.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-10.pdf
# 動画の談話構造解析 福島健司 $\dagger$ 平尾努 $\S$ 上垣外英剛 $\dagger$ 奥村学 $\dagger$ 永田昌明 $\S$ †東京工業大学 §NTTコミュニケーション科学基礎研究所 \{fukuken@lr., kamigaito@lr., oku@\}pi.titech.ac.jp \{tsutomu.hirao.kp, masaaki.nagata.et\}@hco.ntt.co.jp ## 1 はじめに テキストを構成する文や節の間には「因果」や 「対比」などの何らかの関係が成り立っており,こうした関係に基づきテキストを構造化したものを談話構造という。談話構造をあらわす理論として,修辞構造理論 (Rhetorical Structure Theory: RST) [1] がよく用いられる.RSTではテキストは,終端記号が Elementary Discourse Unit (EDU) という節相当の談話単位, 非終端記号が EDU によって構成されるテキストスパンの核性1),枝がスパン間の修辞関係をあらわす句構造木として表現される。つまり,修辞構造はテキストがあらわすイベント間の関係を木構造として表現したものとして捉えることができる. 一方,テキストとして記述されたイベントの多くは実世界での出来事と結びついている2)。よって, それを記録した映像,つまり,動画にもテキストと同様に修辞構造が存在すると考えられる. 動画の修辞構造を解析できるようになれば,一貫性の高い動画要約や動画内容理解の支援などアプリケーションの高度化に貢献できる. 本研究では, 動画の修辞構造解析の第一歩として,動画とそれに含まれるイベントに対してキャプションとその修辞構造の注釈を与えたベンチマークデータセットを構築し, 既存の修辞構造解析手法をベースとして動画の修辞構造解析がどの程度可能かを検証する。 図 1 に動画の修辞構造木の例を示す. 動画は時間情報を伴ったイベントに分割され,分割されたイベントにはその内容をあらわすキャプション (文)が付与される. 動画修辞構造木は, 終端記号がイベント,つまり動画中の区間とそれに対応するキャプ 1)修辞関係で結びついた 2 つのスパンのうち,主となる役割を担うスパンが核 (Nucleus),補助的な役割を担うスパンが衛星 (Satellite) となる. 2)もちろん,テキストで記述されるイベントのすべてが実世界のイベントと結びっいているわけではない. s1. some guys are lying down and many people are assembled around them. s2. a man speaks to the cloud with a microphone and the crowd clap their hands. s3. another man run and jump over the guys and a cheer goes up from the crowd. 図 1 動画に対する修辞構造木. 動画は https://youtu.be/coKW897eLyg より得た. ション文,非終端記号がイベントとキャプション文がなすスパンの核性,枝が 2 つのスパン間の修辞関係をあらわす木である.テキストの修辞構造木では終端記号は文よりも小さい EDU であるが,動画修辞構造の場合は,イベントを終端記号とするので,文が談話構造の最小単位になることに注意されたい. ## 2 関連研究 動画をイベントに分割し,それぞれのイベントが支配する区間に対しキャプションを与えるという試みは Dense Video Captioning (DVC) と呼ばれ,コンピュータビジョン分野で研究が盛んに行われており,いくつかのベンチマークデータセットが整備されている。そのなかでも, ActivityNet Captions ${ }^{3)}$ は最大規模のデータセットである。人間の動作を含む YouTube の 2 万動画に対しイベント分割とイベントに対するキャプション文を与えたデータセットで  図 2 映像特徴量のモデルへの導入方法 あり, ActivityNet Challenge4)でのシェアドタスクのデータとして用いられていることから,このデータを用いた DVC の研究が盛んに行われている。なお, 1 つの動画は平均 3.67 個のイベントに分割される. つまり,1つの動画に与えられるキャプション文は平均で 3.67 文となる. また, 1 つのイベントは平均 36 秒となっている. ただし,DVC は動画中のイベント同定とキャプション付与が目的であるため, 修辞構造の注釈は与えられていない。つまり,動画中のイベントに修辞構造の注釈を与えたデータセットは現状では存在しない. 一方,本研究と同様に動画の修辞構造解析を目的とした研究として [2] がある. この研究では, 動画のキャプションに対して修辞構造木を推定した後, キャプション文とそれに該当する動画中の区間の割り当てを行うことで動画の修辞構造木を推定する。 [2] では,このタスクのためのデータセットを整備していないため, 得られた修辞構造木の妥当性は不明である。 さらに,修辞構造解析を,キャプションテキストのみを対象に行っているので,技術としてはテキスト修辞構造解析そのものであり,動画から得られる特徴の利用が考慮されていない。 ## 3 提案手法 近年,ニューラルネットワークを用いたテキスト修辞構造解析手法の研究が盛んに行われており, その性能が飛躍的に向上している. 本研究では,テキスト修辞構造解析のベンチマークデータセットである RST-DT [3] を用いた評価結果で良い結果を残した Kobayashi らの解析器 [4] (Span-based Parser: SBP) をべースとして,キャプション文から得られる特徴とイベント区間から得られる特徴を同時に利用する 4) http://activity-net.org ビデオ修辞構造解析手法を提案する.SBP は,イベントが構成するスパンを入力として,それを再帰的に分割することで木を構築し,分割した 2 つのスパンの核性と関係ラベルをそれぞれ3クラス,18クラスの分類問題を解くことで決定する。 ## 3.1 イベントのベクトル表現 本研究では,SBP で利用するスパン(イベント系列)ベクトルをイベントに与えられたキャプション文とイベントに含まれる動画区間のフレームから得た画像特徴量の双方を連結することで生成する. このベクトル表現を得るためのニューラルネットワー クの構造を図 2 に示す. まず,キャプション文内の各単語において, GloVe[5], ELMo[6] から得た単語ベクトルを結合する. 次に,それらに BiLSTM と Selective Gate[7]を適用して文の表現ベクトルを得る. $j$ 番目の単語の内部表現ベクトルは,前向きLSTM ( $\overrightarrow{\mathrm{LSTM}})$ と後向き $ \begin{aligned} \overrightarrow{\mathbf{h}_{j}^{w}} & =\overrightarrow{\operatorname{LSTM}}\left(\mathbf{h}_{j-1}^{w}, \mathbf{w}_{j}\right), \overleftarrow{\mathbf{h}_{j}^{w}}=\overleftarrow{\operatorname{LSTM}}\left(\overleftarrow{\mathbf{h}_{j+1}^{w}}, \mathbf{w}_{j}\right) \\ \mathbf{h}_{j}^{w} & =\left[\overrightarrow{\mathbf{h}}_{j}^{w} ; \overleftarrow{\mathbf{h}}_{j}^{w}\right] \end{aligned} $ $\mathbf{w}_{j}$ は $j$ 番目の単語に対する ELMo と Gloveのべクトルを結合したものである. キャプション文の単語数を $n$ とすると, Selective Gate は $j$ 番目の単語の内部表現 $\mathbf{h}_{j}^{w}$ と文脈ベクトル $\mathbf{s}=\left[\mathbf{h}_{n}^{w} ; \mathbf{h}_{1}^{w}\right]$ を受け取り,新たな $\mathbf{h}_{j}^{w^{\prime}}$ を生成する. $ \begin{aligned} \mathbf{s G a t e}_{j} & =\sigma\left(\mathbf{W}_{s} \mathbf{h}_{j}^{w}+\mathbf{U}_{s} \mathbf{s}+\mathbf{b}_{s}\right), \\ \mathbf{h}_{j}^{w^{\prime}} & =\mathbf{h}_{j}^{w} \odot \mathbf{s G a t e}_{j} . \end{aligned} $ $\mathbf{W}_{s}$ と $\mathbf{U}_{s}$ は重み行列, $\mathbf{b}_{s}$ はバイアスベクトル, $\sigma$ はシグモイド関数,๑は要素積をそれぞれあらわす。 そして,$i$ 番目のイベントの文ベクトル $\mathbf{t}_{i}$ を以下の 式で定義する。 $ \mathbf{t}_{i}=\frac{1}{\mathrm{n}} \sum_{j=1}^{n} \mathbf{h}_{j}^{w^{\prime}} $ 映像特徴量としては,動画から一定時間ごとに切り出したフレームの特徴量を利用する。イベントの動画区間に含まれる特徵量の総数を $m$ としたとき,前向きLSTM と後向き LSTMを用い,イベントの映像ベクトル $\mathbf{e}_{i}$ を以下の式で定義する。 $ \begin{aligned} & \overrightarrow{\mathbf{h}_{j}^{v}}=\overrightarrow{\operatorname{LSTM}}\left(\overrightarrow{\mathbf{h}}_{j-1}^{v}, \mathbf{v}_{j}\right), \overleftarrow{\mathbf{h}_{j}^{v}}=\overleftarrow{\operatorname{LSTM}}\left(\overleftarrow{\mathbf{h}}_{j+1}^{v}, \mathbf{v}_{j}\right), \\ & \mathbf{h}_{j}^{v}=\left[\overrightarrow{\mathbf{h}_{j}^{v}} ; \overleftarrow{\mathbf{h}_{j}^{v}}\right] \\ & \mathbf{e}_{i}=\left[\mathbf{h}_{m}^{v} ; \mathbf{h}_{1}^{v}\right] \end{aligned} $ ここで, $\mathbf{v}_{j}$ は $\mathrm{j}$ 番目の映像特徴量である. $\mathbf{t}$ とにそれぞれスカラー重み $\mathscr{W}_{t}, \mathscr{W}_{e}$ を乗じて結合することで 1 つのイベントに対するベクトル $\mathbf{u}_{i}=\left[\mathscr{W}_{t} \mathbf{t}_{i} ; W_{e} \mathbf{e}_{i}\right]$ を得る. 次に,これを再度 BiLSTM に入力し, 以下のイベントに対する隠れ状態ベクトル $\mathbf{f}_{j}, \mathbf{b}_{j}$ を得る. $ \mathbf{f}_{j}=\overrightarrow{\operatorname{LSTM}}\left(\mathbf{f}_{j-1}, \mathbf{u}_{j}\right), \quad \mathbf{b}_{j}=\overleftarrow{\operatorname{LSTM}}\left(\mathbf{b}_{j+1}, \mathbf{u}_{j}\right) $ 最終的に $i$ 番目のイベントから $j$ 番目のイベントのスパンをあらわすべクトル $\mathbf{u}_{i: j}$ を次式で定義する。 $ \mathbf{u}_{i: j}=\left[\mathbf{f}_{j}-\mathbf{f}_{i-1} ; \mathbf{b}_{i-1}-\mathbf{b}_{j}\right] . $ ## 3.2 解析モデル スパンを $k(i<k<j)$ 番目のイベント区間で分割するかを判定するスコアは以下の式で定義される。 $ \mathrm{s}_{\text {split }}(i, j, k)=\mathbf{h}_{i: k}^{\top} \mathbf{W}_{u} \mathbf{h}_{k+1: j}+\mathbf{d}_{l}^{\top} \mathbf{h}_{i: k}+\mathbf{d}_{r}^{\top} \mathbf{h}_{k+1: j} . $ $\mathbf{W}_{u}$ は重み行列, $\mathbf{d}_{l}$ と $\mathbf{d}_{r}$ は重みベクトルである。また, $\mathbf{h}_{i: k}$ と $\mathbf{h}_{k+1, j}$ は以下の式で定義される. $ \begin{aligned} \mathbf{h}_{i: k} & =\operatorname{MLP}_{\text {left }}\left(\mathbf{u}_{i: k}\right), \\ \mathbf{h}_{k+1: j} & =\operatorname{MLP}_{\text {right }}\left(\mathbf{u}_{k+1: j}\right) . \end{aligned} $ $\mathrm{MLP}_{*}$ は多層パーセプトロンを表し,一層の順伝播型ニューラルネットワークと,活性化関数に ReLU 関数を用いる。そして,関数 $\mathrm{s}_{\text {split }}$ を最大とする $\hat{k} て ゙ ~$ スパンを分割する。 $ \hat{k}=\underset{\mathrm{k} \in\{i, \ldots, j-1\}}{\arg \max }\left[\mathrm{s}_{\text {split }}(i, j, k)\right] . $ スパン $(i, j)$ を $k$ で分割した 2 つのスパン間に付与する核性ラベルと関係ラベルのスコア $\mathrm{s}_{\mathrm{label}}(i, j, k, \ell)$ は以下の式で定義される。 $\mathrm{S}_{\text {label }}(i, j, k, \ell)=\mathbf{W}_{\ell} \operatorname{MLP}\left(\left[\mathbf{u}_{i: k} ; \mathbf{u}_{k+1: j} ; \mathbf{u}_{1: i} ; \mathbf{u}_{j: n}\right]\right)$. $\mathbf{W}_{\ell}$ は重み行列である. そして,以下の式でラベルが選択される。 $ \hat{\ell}=\underset{\ell \in L}{\arg \max }\left[\mathrm{s}_{\text {label }}(i, j, l, \ell)\right] . $ $L$ は,核性ラベル推定の際には $\{\mathrm{N}-\mathrm{S}, \mathrm{S}-\mathrm{N}, \mathrm{N}-\mathrm{N}\}$ ,関係ラベル推定の際には 18 種類の修辞関係ラベルの集合をそれぞれをあらわす。 そして,すべてのパラメタは正解の分割 $k^{*}$ と正解ラベル $\ell^{*}$ に対し, 以下の損失の最小化により最適化される。 $ \begin{aligned} & \max \left(0,1+\mathrm{s}_{\text {split }}\left(i, j, k^{*}\right)-\mathrm{s}_{\text {split }}(i, j, \hat{k})\right) \\ & +\max \left(0,1+\mathrm{s}_{\text {split }}\left(i, j, k^{*}, \ell^{*}\right)-\mathrm{s}_{\text {split }}\left(i, j, k^{*}, \hat{\ell}\right)\right) . \end{aligned} $ ## 4 実験 ## 4.1 データセット 上で述べた ActivityNet Captions の検証用データセット中のデータ 339 件に対し,人手で修辞構造の注釈を与えたデータセット(Activity-RST)を作成した.なお,注釈付けは RST-DT 作成時に利用されたマニュアル ${ }^{5}$ に従った. 表 1 に,1文書あたりの文数, 修辞構造木の深さを, RST-DT との比較で示す. Activity-RST の木は RST-DT の木と比ベノード数が少なく,階層が浅い.RST-DT の核性ラベルの頻度は,N-S が 5079,N-Nが 1851,S-Nが 532 であり,関係ラベルは Elaboration, Joint,Explanation の順で多かった。一方, Activity-RST の核性ラベルの頻度は, N-S が 44,N-N が 204,S-N が 1111 であり,関係ラベルは Elaboration, Background, Textual-organization の順で多かった. 2 つのスパンが RST-DT では S-N に分類されることが多く, Activity-RST では N-S に分類されることが多い。この理由は,RST-DT は新聞記事が対象であるため記事の重要部が主に前に現れることに対し, Activity-RST は動画が対象であるため重要部は後に現れることにある。これらの比較から, Activity-RST は RST-DT とは性質の異なるデータセットであることが分かる. ## 4.2 映像特徵量 本実験で使用した映像特徴量は,C3D[8] および, RGB ResNet-200(RES)[9] と Optical flow BNInception(BN)[10] の組み合わせである。C3D は,3D 5) https://citeseerx.ist.psu.edu/viewdoc/download?doi= 10.1.1.201.9677\&rep=rep1\&type=pdf 表 1 データセットの比較 ConvNetwork を用いて 8 フレーム毎に映像を 1 つの 500 次元べクトルへと畳み込んだもので, ActivityNet Challenge で公式に配布されている特徴量である. RES と BN の組み合わせは,Zhou らの DVC システム [11] で利用された特徵量である. RES は映像の RGB 值を 0.5 フレーム毎に取得した特徴量, BN はオプティカルフローを 0.5 フレーム毎に取得した特徵量である. ## 4.3 実験設定 10 分割交差検証 (訓練:検証:テストデータ=8:1:1) により解析器の評価を行った. また,5 モデルアンサンブルを用い,異なる初期値の 3 回の試行の平均値を最終的な評価結果とした。 解析に用いるキャプションは, ActivityNet Captions で与えられた正解キャプションと Zhou らのシステム [11] に正解イベントの区間を与えて生成したキャプションを試した. C3D, RES+BNとも ActivityNet Captions の正解イベントの区間から得たものを利用した. そして,テキストから得た特徴と映像から得た特徴のそれぞれの組み合わせも評価した。 評価指標は RST-Parseval[3] に従い,ラベルなしスパン (Span),核性ラベル付きスパン (Nuc),関係ラベル付きスパン (Rel), すべてのラベル付きスパンの一致 (Full)の micro-averaged $F_{1}$ 值を用いた. ## 4.4 結果と考察 表 2 に評価結果を示す. テキスト特徴量, 映像特徵量を単独で用いた場合を比較すると,正解キャプションを利用した場合のスコアが最も高い. 正解キャプションを用いた場合よりもスコアは大きく下がるが,C3D,RES+BNを用いた場合がほぼ同等のスコアであり,システムが生成したキャプションを用いた場合が最もスコアが低く, C3D, RST+BN よりも 2 ポイント程度劣化している. 修辞構造の注釈は正解キャプションに基づき行われたため, 正解キャプションを利用した場合が最も良い結果を得たことは妥当であろう.しかし, C3D,RES+BNよりもシステムが生成したキャプションを用いた場合に表 2 Micro-averaged $F_{1}$ による性能比較 性能が劣化していることは自動生成されたキャプション文の質が低いことを示唆している. 次にテキスト特徴量と映像特徴量を組み合わせた場合をみると, 正解キャプションに対して C $3 \mathrm{D}$, RES+BN の双方を組み合わせるとすべての指標においてスコアが改善されていることがわかる.この結果は, 映像特徴量が修辞構造解析に役立っていることを示している. しかし, システムが生成したキャプションを組み合わせると,C3D,RES+BNをそれぞれ単独で利用する場合よりもスコアは劣化しており, システムが生成したキャプションの質の低さが悪影響を与える結果となった。 ## 5 おわりに 本稿では, 動画の修辞構造解析のため, ActivityNet Captions データセットの一部に修辞構造の注釈を与えたベンチマークデータセットを構築した. テキス卜と映像特徴量が解析性能に与える影響を調べた結果,正解キャプションから得た特徴量を用いる場合の性能が最も良く, 正解キャプションと正解イベントの区間から得られる映像特徵量を組み合わせることでさらに性能が向上することを確認した. 今回のテキストと映像の特徵量の組み合わせ方は非常に単純なものであるため,これをさらに洗練されたものに改良することで性能向上をはかりたい。また,未知のデータの解析のためにはイベントの区間推定, キャプションの生成をともに自動的に行わねばならない. 今回の実験結果では自動推定したキャプションで大きく性能が劣化したことからキャプション生成における改善の必要性が明白となった。 また,イベント区間の自動推定についても手法を開発し,修辞構造解析の性能に与える影響を調べる必要があるだろう. ## 参考文献 [1]W.C. Mann and S.A Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87190, USC/ISI, 1987. [2]Arjun Reddy Akula and S. Zhu. Visual discourse parsing. ArXiv, Vol. abs/1903.02252, , 2019. [3]Lynn Carlson, Daniel Marcu, and Mary Ellen Okurovsky. Building a discourse-tagged corpus in the framework of Rhetorical Structure Theory. In Proceedings of the Second SIGdial Workshop on Discourse and Dialogue, 2001. [4]Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Top-down rst parsing utilizing granularity levels in documents. In Proceedings of the 2020 Conference on Artificial Intelligence for the American, pp. 8099-8106, New York, America, September 2020. [5]Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, Doha, Qatar, October 2014. Association for Computational Linguistics. [6]Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [7]Qingyu Zhou, Nan Yang, Furu Wei, and Ming Zhou. Selective encoding for abstractive sentence summarization. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1095-1104, Vancouver, Canada, July 2017. Association for Computational Linguistics. [8]Du Tran, Lubomir D. Bourdev, Rob Fergus, Lorenzo Torresani, and Manohar Paluri. C3D: generic features for video analysis. CoRR, Vol. abs/1412.0767, , 2014. [9]K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778, 2016. [10]Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 448-456, Lille, France, 07-09 Jul 2015. PMLR. [11]Luowei Zhou, Yingbo Zhou, Jason J. Corso, Richard Socher, and Caiming Xiong. End-to-end dense video captioning with masked transformer. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-11.pdf
# 複数人議論における発話間の関係を対象とした関係分類 姫野拓未 九州工業大学大学院情報工学府 t_himeno@pluto.ai.kyutech.ac.jp ## 1 はじめに 研究室や会社では,新しい研究のアイデアや経営戦略を打ち出すために会議が日々行われている。そこで行われた会議内容を会議に参加していない人に共有するためには,議事録が不可欠である.会議に参加していない人が議事録を読み返すことは議論全体の論点を把握することには適しているが,会議で結論に達するまでの流れを把握することは難しい. そこで,会議の議事録を議論構造として表すことができれば,発話間の関係を捉えることができ,結論に達するまでの議論の流れや議論全体の論点を素早く把握することができる. また,その発話間の関係の役割を捉えることができれば,発話の意図を捉えることができ,議事録理解の支援ができると考えられる。 文章を構造化するタスクの一つとして議論マイニングがある [1]. 議論マイニングとは,例えば小論文のような文章を入力文として,主張を表している文と,その主張を支持したり反論したりする文を自動的に判別するタスクである。他にも,文書要約 [2] や自動採点 [3], 論文執筆支援 [4] など数多くの自然言語処理タスクで取り組まれている。一般に議論マイニングは要素分類, 要素抽出, 関係抽出, 関係分類の 4 つのサブタスクから構成されている. 我々は以前の研究において,複数人議論を対象に議論マイニングのサブタスクの中でも議論構造の構築のために重要なタスクである発話間の関係抽出に焦点を当てて研究を行った [5]. 関係抽出は議論構造に関連する文や節から成り立つ 2 つの論理要素に対して関係の有無を推定するタスクである. 発話間の関係抽出を行うことによって,議論構造において議論の流れを把握を支援できる. しかし, 以前の研究だけでは議論構造における発話間の関係の役割を捉えることができない. そこで本研究では,複数人議論を対象に関係抽出後のタスクである発話間の関係分類に焦点を当てる. 関係分類は論理要素のペア \author{ 嶋田和孝 \\ 九州工業大学情報工学部 \\ shimada@pluto.ai.kyutech.ac.jp } を対象に,主張に対する支持や反論のような関係を持つ役割のラベルを割り当てるタスクである。例えば Stab らは学生が書いたエッセイを対象に関係分類を取り組んでいる [6]. Stab らはエッセイの特徵を捉えた素性を作成し,論理要素の関係分類を行っている。対象としている関係では主張を支持する関係と反論する関係の 2 種類のみである。一方で,本研究で対象とする複数人議論では主張を支持・反論する関係だけでなく,選択肢のある質問から回答を選択する関係などエッセイには存在しない関係が多く存在する。 本研究では,複数人議論を対象に Self-Attentionを用いて発話内容に着目したモデルを構築し関係分類を行う。本研究の貢献は次の 2 点である. ・様々な言語の分散表現や Self-Attention を用いて関係分類モデルを構築した。 ・BERT [7] に基づく関係分類結果より本研究で作成したモデルの方が高精度であることを確認した. ## 2 データセット 本研究では複数人議論コーパスの一つである AMI corpus を用いる [8]. AMI corpus はあらかじめ議題が与えられている状態で行われるシナリオ会議を収録したコーパスであり,書き起こしデータが公開されている1). 議題の設定として,架空の家電企業に勤める異なる役職の 4 人の従業員が,市場に出回っている古いデザインのテレビリモコンの代わりとなる新しいテレビリモコンを開発するという議題で計 4 回行われる. また本研究では発話間の関係分類タスクのためのデータセットとして, Twente Argument Schema (TAS) を用いる [9]. TAS は AMI corpus のシナリオ会議の議論で生じる議論構造を明らかにするために作成されたアノテーションスキーマである. TASにおける 1) http://groups.inf.ed.ac.uk/ami/download/ 表 1 Relation Label とその説明 \\ 回答を選択する関係 議論構造は 2 つの要素から成り立っている. ある話者の発話全体,また発話の一部,複数の発話から成り立っているノードとそのノード間を結ぶエッジから成り立っている. また,エッジにはノード間にどのような役割であるかを示す Relation Label が付与されている. Relation Label の詳細を表 1 に示す. ある主張に対して支持する関係である「Positive」や, より多くの情報を求めたりもう一度促したりするような関係である「Request」など計 9 種類のタグが付与されている。 さらに,TAS では一つの会議 (ダイアログ) の中である議題が挙げられてから,その議題が結論に達した時やその議題を途中で中断したり放棄したりするまでをディスカッションと定義している. 各ディスカッションは一つのダイアログ中に一つまたは複数存在し,各ノードは一つのディスカッションに複数存在する. 本研究では各ディスカッション内のノード間を結ぶエッジに付与された Relation Labelを分類する実験を行う。 ## 3 手法 本研究で用いたモデルの概要図を図 1 に示す. ディスカッション内で関係がある二つのノードペアをそれぞれ Bi-LSTMを用いて隠れ層を算出する。次に,それぞれの隠れ層に対して Self-Attention を用いて隠れ層を更新する. Self-Attentionによって得られた隠れ層を連結し,最終層が作成される。その層をSoftmax 関数に入力することによって Relation Label を分類する. ## 3.1 入力層 AMI corpus のディスカッション内で関係を持つ任意のノードペア node $_{i}=\left(w_{1}, w_{2}, \ldots, w_{k}\right)$, node $_{j}=($ $\left.w_{1}, w_{2}, \ldots, w_{l}\right)$ を入力とする. ここでの $w$ はノード内の単語を表しており, $k$ と $l$ はノードの単語長を表している。次に,ノード内の単語を 4 種類の分散表現の中から 1 つまたは複数の分散表現を連結してべクトル $V_{i}=\left(v_{1}, v_{2}, \ldots, v_{k}\right), V_{j}=\left(v_{1}, v_{2}, \ldots, v_{l}\right)$ に変換する. 4 種類の分散表現は Word2 $\mathrm{Vec}^{2}$ ) (図 1 における W), $\mathrm{GLoVe}^{3)}(\mathrm{G}), \mathrm{ELMo}^{4)}(\mathrm{E})$, Transformer ${ }^{5)}(\mathrm{T})$ であり, $v_{x}$ は $w_{x}$ の単語ベクトルを表す. Transformer ## $3.2 \mathrm{Bi$-LSTM} 本研究では Bi-LSTM [10] を用いてノード全体のベクトルを獲得する。それぞれのべクトル変換したノードの単語ベクトルを Bi-LSTM で以下のように算出する。 $ \begin{aligned} \overrightarrow{h_{x}} & =\overrightarrow{L S T M}\left(v_{x}, \vec{h}_{x-1}\right)(\text { 順方向 }) \\ \overleftarrow{h_{x}} & =\overleftarrow{L S T M}\left(v_{x}, \overleftarrow{h}_{x+1}\right)(\text { 逆方向 }) \\ h_{x} & =\left[\overrightarrow{h_{x}} ; \overleftarrow{h_{x}}\right] \end{aligned} $ $h_{x}$ は Bi-LSTM モデルの隠れ層のベクトルであり, $[\cdot ; \cdot]$ は二つのべクトルの連結を表す。それぞれの Bi-LSTM から出力された隠れ層全体のベクトル $H_{i}, H_{j}$ は以下のようになる. $ \left.\{\begin{array}{l} H_{i}=\left(h_{1}, h_{2}, \ldots, h_{k}\right) \\ H_{j}=\left(h_{1}, h_{2}, \ldots, h_{l}\right) \end{array}\right. $ ## 3.3 Self-Attention Bi-LSTM の出力層を基に Self-Attention を算出する. Lin ら [11] が提案した Self-Attention を使用し,重みを以下のように算出する。 $ \alpha_{x}=\operatorname{softmax}\left(\omega^{T} \tanh \left(H_{x}\right)\right) $ $\omega$ は学習可能なパラメータのベクトルである. そして,この重みを利用して以下のようにそれぞれの Bi-LSTM の最終的な隠れ層を算出する。 $ \left.\{\begin{array}{l} H_{i_{\alpha}}=\alpha_{i} H_{i} \\ H_{j_{\alpha}}=\alpha_{j} H_{j} \end{array}\right. $  図 $1 \mathrm{Bi}$-LSTM を用いたモデルの概要図 ## 3.4 出力層 それぞれの Bi-LSTM の出力層を連結してクラスラベルに対応するインデックスを出力する. まず, それぞれの Self-Attention の出力層を以下のように連結する. $ H^{*}=\left[H_{i_{\alpha}} ; H_{j_{\alpha}}\right] $ 連結した層を用いて,クラスラベル $r$ を以下のように算出する. $ \begin{array}{r} \hat{y}_{r}=\operatorname{softmax}\left(W H^{*}+b\right) \\ r=\underset{r \in R}{\arg \max } \hat{y}_{r} \end{array} $ $W, b$ は学習可能なパラメータであり,$\hat{y}_{r}$ はクラスラベルに対応する確率値, $R$ は Relation Label である. ## 3.5 訓練 モデルの訓練について説明する.損失関数には NLLLoss を利用し, 最適化手法には Adam [12]を利用する。学習率は 0.001 に設定し,バッチサイズは 128,隠れ層の次元は 300 に設定する。 ## 4 実験 本節では,4.1 節において 2 節で述べた複数人議論コーパスを用いた実験設定について説明する。 4.2 節において,分類結果について説明する。 ## 4.1 実験設定 本研究で用いた実験データの詳細について説明する. 実験データは, AMI corpus のダイアログ 92 対話から作成された 219 個のディスカッションを用いて実験を行った。訓練データ,開発データ,評価データに AMI corpusをダイアログ単位で 84 対話, 4 対話, 4 対話と分割した. また,それぞれのディスカッションの数は 201 個,13 個,12 個,関係分類で用いるノードペアの数は 4001 個, 241 個,242 個となっている. データ分布の詳細を表 2 に示す. 表 2 より,各データにおいて「Positive」の数が多く,偏りがあるデータ分布となっている. 本研究の比較対象として,BERT [7] を baseline として利用する。 BERT は大規模なテキストコーパスを用いて事前学習を行った後,タスクごとに fine-tuning する汎用言語モデルである. ## 4.2 実験結果 表 3 に各モデルの分類結果を示す. 評価値を適合率 (Precision), 再現率 (Recall), F1 值 (F-score) で評価した. 表 3 では利用した分散表現を示したBi-LSTM のみのモデルとそのモデルに対して Self-Attention を組み込んだモデル (各行の“+ Self-Attention”) それぞれで評価している。表 3 より,分散表現のみのモデルより Self-Attentionを用いたモデルの分類結果が良 表 2 データ分布の詳細 表 3 発話間の関係分類を行った実験結果 いことが確認できた. このことより,Self-Attention が複数人議論の関係分類においても有効であることが確認できる。また特に,Transformerを分散表現に使用し Self-Attention を利用したモデルと, ELMo と Transformer を分散表現に使用し Self-Attention を利用したモデルは, fine-tuning した BERT より F1 值が高いことを確認できた。 次に fine-tuning したBERT と $B i-L S T M_{E+T}$ の各 Relation Label の F1 值の詳細を表 4 に示す7). 表 4 より, fine-tuning した BERT と比較して Bi-LSTM $M_{E+T}$ は少数ラベル (例えば事例数が 7 である Sep など) であっても少なくともいくつかは正しく分類できるモデルであることを確認できた. しかし,「Uncertain」 のような Positive か Negative か曖昧な関係ラベルでは fine-tuning した BERT より F1 値が劣っている. これは本手法がノード自身に Self-Attention を付与した後それぞれのノードを連結して分類するモデルであることに起因すると考えられる。 つまり,それぞれのノードが独立でもう一つのノードに対してノー 7) Option exclusion は評価データの中に存在しなかったため表から除く.表 42 つのモデルの詳細なラベルの実験結果の比較 ド情報を全く与えていないことが問題となっている. 一方で BERT はノードペアを同一のモデルに入力するためそれぞれのノードが相互にノード情報を与え分類することができる.このことから,それぞれのノードに対して相互にノード情報を与えるモデルの構築が今後の課題となる. ## 5 おわりに 本研究では, 複数人議論コーパスを対象に発話間の関係を対象とした関係分類を行った。複数人議論コーパスには AMI corpus を用いた。次に,発話間の関係分類を行うために複数の分散表現を組み合わせ,Self-Attention を用いたモデルを構築し関係分類実験を行った. その結果, Bi-LSTM $M_{E+T}+$ Self-Attention モデルの推定精度が最も高くなることを確認した。また,fine-tuning したBERT の分類結果より構築したモデルの分類結果の方がよいことを確認した. さらに,構築したモデルでは fine-tuning した BERT より少数ラベルであっても少なくともいくつかは分類できることを確認した. 今後の課題としては,「Uncertain」のような提案したモデルで分類することが難しいラベルに対応するため,ノードの情報を相互に組み込んだモデルを構築することが挙げられる. ## 謝辞 本研究は科研費 $20 K 12110$ の助成を受けたものです. ## 参考文献 [1] Christian Stab and Iryna Gurevych. Parsing argumentation structures in persuasive essays. Computational Linguistics, Vol. 43, No. 3, pp. 619-659, 2017. [2] Emma Barker and Robert Gaizauskas. Summarizing multiparty argumentative conversations in reader comment on news. In Proceedings of the Third Workshop on Argument Mining (ArgMining2016), pp. 12-20, 2016. [3] Debanjan Ghosh, Aquila Khanam, Yubo Han, and Smaranda Muresan. Coarse-grained argumentation features for scoring persuasive essays. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 549-554, 2016. [4] Christian Stab and Iryna Gurevych. Training argumentation skills with argumentative writing support. In Proceeding of SEMDIAL 2017 (SemDial) Workshop on the Semantics and Pragmatics of Dialogue, pp. 166-167, 2017. [5] Takumi Himeno and Kazutaka Shimada. Relation identification using dialogical features in multi-party conversation. In Proceedings of the 8th International Symposium on Applied Engineering and Sciences, 2020. [6] Christian Stab and Iryna Gurevych. Identifying argumentative discourse structures in persuasive essays. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 46-56, 2014. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, pp. 1-16, 2018. [8] Jean Carletta, Simone Ashby, Sebastien Bourban, Mike Flynn, Mael Guillemot, Thomas Hain, Jaroslav Kadlec, Vasilis Karaiskos, Wessel Kraaij, Melissa Kronenthal, et al. The ami meeting corpus: A pre-announcement. In Proceedings of International workshop on machine learning for multimodal interaction, pp. 28-39. Springer, 2005. [9] Rutger Rienks, Dirk Heylen, and Erik van der Weijden. Argument diagramming of meeting conversations. In In Proceedings of Multimodal Multiparty Meeting, Workshop at the 7th International Conference on Multimodal Interfaces, pp. 85-92, 2005. [10] Mike Schuster and Kuldip K Paliwal. Bidirectional recurrent neural networks. IEEE transactions on Signal Processing, Vol. 45, No. 11, pp. 2673-2681, 1997. [11] Zhouhan Lin, Minwei Feng, Cicero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou, and Yoshua Bengio. A structured self-attentive sentence embedding. arXiv preprint arXiv:1703.03130, 2017. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-12.pdf
# 診療記録で事前学習した言語モデルからの 学習データ中の人名漏洩リスクの推定 1,2 中村優太 3 花岡昇平 4 野村行弘 4 林直人 1,3 阿部修 2 矢田竣太郎 2 若宮翔子 2 荒牧 英治 1 東京大学大学院医学系研究科生体物理医学専攻 2 奈良先端科学技術大学院大学 3 東京大学医学部附属病院放射線科 4 東京大学医学部放射線医学教室コンピュータ画像診断学/予防医学講座 ## 1 はじめに 診療記録とは,医療機関などで主に医療従事者によって作成される,患者の身体状況,病状,治療などが記載された文書を指す。診療記録には,医師による経過記録のほか,看護記録,検査報告書,薬剤指導記録,栄養指導記録,リハビリテーション記録などが含まれる [1]. 近年 BERT [2] などの言語モデルにより,これら診療記録に対する自然言語処理が高精度で達成されるようになった [3].診療記録を学習データとした言語モデルも多数発表されており, ClinicalBERT [4], BlueBERT [5], UTH-BERT [6], MS-BERT [7] などは匿名化済み診療記録で学習されモデル自体も公開されている。一方 EhrBERT [8], AlphaBERT [9]のように, 論文化されているがモデル自体は非公開のものもある. 言語モデルを公開せず作成施設内での使用にとどめる場合, 学習データの匿名化が必須ではなくなり,学習データの作成コストを削減できる. しかし, そうしたモデルが誤って流出すると,個人情報の不正取得に利用される恐れがある. 先行研究では, 言語モデルからの個人情報漏洩リスクに対する見解は様々である.Carlini らは, GPT-2[10] モデルに自然言語生成させると約 $0.1 \%$ の頻度で学習データの一部をそのまま出力し, そこには個人情報も含まれることを示した [11]. 一方 Nakamura らは,対象とする個人情報の種類や個人情報漏洩の状況を定式化し, 現実的には診療記録で事前学習した BERT モデルからの個人情報流出リスクは低いと報告した [12]. この見解の相違の背景には次のような原因が推測される: (i) Carlini らはまず言語モデルに自然言語生成をさせ,その生成物に対して議論を行っているが,Nakamura らは学習データ中の対象個人情報の種類の決定と量の把握を出発点としている. (ii) Nakamura らは,個人情報不正取得の基準をやや厳しく定めており,学習データの各文書がどの患者由来か正しく推定できれば成功,それ以外はすべて失敗としたため,リスクを過小評価している可能性がある.実際は,単にある人物が学習データに含まれていたという事実が漏洩するだけでも本人への脅威となる可能性がある。当該医療機関への入院歴があることを第三者に知られてしまうためである。 そこで本研究では,事前学習済み言語モデルを用いて「ある患者名が学習データ中に含まれていたか否か」が正しく推定されてしまう可能性の定量的評価を試みた。結果,本研究で検討した範囲では,そのような人名漏洩リスクも低いものと考えられた。 ## 2 関連研究 Malin らは,診療記録中の情報のうち個人が特定しやすいものほど漏洩時の影響が大きいとした [13]. 例えば,氏名や生年月日は単独で,口座番号や資格証番号は他データベースとの照合により, それぞれ個人を特定しうる。病歴や検査値などの医学的情報も, 経時的変化しないものや稀なもの(難病の既往歴など)は個人の特定に繋がりやすい. 本研究で用いる診療記録コーパスが作成された米国では,HIPAA 法 [14] が,二次利用する診療記録の氏名,住所,ID などの 18 種の識別子 (18 HIPAA Identifiers) を削除し,保護すべき個人情報 (PHI, Protected Health Information) の漏洩を防ぐよう定めている. 先行研究では, 言語モデルからの個人情報不正取 得は,中間パラメータを用いる white-box attack, 最終出力のみを用いる black-box attack に二分される。 White-box attack の例として, Zhu らは学習時の勾配から, Song らや Pan らは隠れ状態から入力文の復元を試みた $[15,16,17]$. Black-box attack の例として, Misra らや Hisamoto らは,学習済みの GPT-1 [18] や機械翻訳モデルが, 文書サンプルが学習データ内外どちらのものか識別しうることを示した $[19,20]$. Carlini らは, LSTM [21] モデルが学習データの部分文字列を意図せず記憶しうることを示し,その定量評価法を提案したほか [22], GPT-2 モデルからの学習データの一部の復元に成功した [11]. ## 3 問題設定および材料 ## 3.1 問題設定 本研究では,以下のように細部の異なる個人情報漏洩の状況設定を 2 つ検討する。 状況設定 1 以下の 3 条件を仮定する: - 医療機関は診療記録全体から部分集合 $\mathscr{D}_{\text {private }}$ を得る。 - 医療機関は,事前学習済みのドメイン非特化な言語モデル $M_{\text {general }}$ に D private を用いた事前学習を追加して $M_{\text {hospital }}$ とし, $M_{\text {hospital }}$ を公開する。 ・攻撃者はターゲットとする氏名のリスト $\mathscr{L} を$作成する. 攻撃者は $M_{\text {hospital }}$ を用いて $\mathscr{L}$ の各氏名が Dprivate に含まれていたか否か推測する (つまり $\mathscr{L}$ 内の各氏名に対して二値分類を行う). 状況設定 2 「状況設定 1」に以下を加える: ・医療機関は $\mathscr{D}_{\text {private }}$ を HIPAA 準拠匿名化したものを $\mathscr{D}_{\text {public }} とし , \mathscr{D}_{\text {public }}$ も公開する. KART Framework [12]を用いると,状況設定 ${ }_{i}$ は 「攻撃者の事前知識, 学習データの匿名化, 攻撃者が利用可能な言語資源, 攻撃者の目標」の 4 パラメータの組として以下の $\mathrm{KART}_{i}$ のように表せる: $ \operatorname{KART}_{1}=\left(\mathscr{L}, \mathrm{id}, \varnothing,\left.\{\mathbb{1}\left(\text { name } \in \mathscr{D}_{\text {private }}\right) \mid \text { name } \in \mathscr{L}\right.\}\right) $ $ \mathrm{KART}_{2}=\left(\mathscr{L}, \mathrm{id},\left.\{\mathscr{D}_{\text {public }}\right.\},\right. $ $\left.\{1\left(\right.\right.$ name $\left.\in \mathscr{D}_{\text {private }}\right) \mid$ name $\left.\left.\in \mathscr{L}\right.\}\right)$ ## 3.2 コーパス MIMIC-III [23] および MIMIC-III-dummy-PHI [12] を利用した. MIMIC-III は英語の診療記録約 208 万文書からなる大規模コーパスであり, HIPAA 準拠 匿名化のため 18 HIPAA Identifiers にあたる個人情報が特殊記号 (placeholder) に置換されている。また MIMIC-III-dummy-PHI は, MIMIC-III $の$ placeholder $の$ うち対象個人情報のカテゴリが推定可能なものを, Faker ライブラリ ${ }^{11}$ や i2b2 2006 shared task [24] デー タセットから無作為に生成・抽出したダミ一個人情報で再置換し,あたかも個人情報を含んでいるかのように改変したものである. 図 1 のように, MIMIC-III から 100 万文書を無作為に選んで $\mathscr{D}_{\text {private }}$ とし, 同じ 100 万文書を MIMICIII-dummy-PHI から選んで $D_{\text {public }}$ とした. つまり $\mathscr{D}_{\text {private }}$ と $\mathscr{D}_{\text {public }}$ は匿名化の有無以外は同一である. ## 3.3 対象言語モデル $M_{\text {general }}$ は Google によって公開されている uncased BERT $_{\text {BASE }}$ モデルとした. また $M_{\text {general }}$ から開始して $\mathscr{D}_{\text {private }}$ による事前学習を追加したものを $M_{\text {hospital }}$ とした。事前学習のパラメータは ClinicalBERT [4] を踏襲し, 最大入力長 128 トークン, 学習率 $2 \mathrm{e}-5$, batch size 64, step 数 100,000 とした. ## 3.4 人名漏洩テストの対象患者氏名 実際に D Drivate に出現する氏名 (正例) と出現しない氏名 (負例)を同数ずっ用意し, 正例と負例の和集 正例の収集方法を以下に示す. 一般的に診療記録に患者氏名はほとんど記載されないが,MIMIC-III では患者の年齢と性別を述べた “ $\mathrm{X}$ is a(n) Y years old (fe)male"という形の一節を探すと,まれに X が一般名詞句ではなく患者氏名である場合がある.そこで,そうした一節から始まる連続した 5 文を重複を除いてすべて抽出した. 次に,各抽出箇所のうち,患者氏名 X の姓,名がともに $M_{\text {general }}$ によって 1トークンで表現されるもの (subword に分割されな  いもの)のみを集め,「患者氏名パターン」とした。 $D_{\text {private }}$ には患者氏名パターンは 232 回出現し, 重複を除いて 158 種存在した。また,氏名は重複を除いて 130 種存在しており,この 130 種を正例とした. 負例は,Faker に収録されている米国の実際の氏名の分布を近似した分布からサンプリングを繰り返し,重複を除いて 130 種収集した. その際,姓名ともに $M_{\text {general }}$ が 1 トークンで表現でき,かつ以下の条件のいずれかを満たすサンプルのみを受理した. - Easy Negative: Dprivate に一度も出現しない.また,姓と名のいずれも,正例に含まれるどの氏名とも一致しない. - Hard Negative: $D_{\text {private }}$ に一度も出現しないが,姓と名のうちどちらか一方が正例の氏名のうち少なくとも 1 つ以上と一致する. ## 4 人名漏洩リスクの評価実験 攻撃者が $M_{\text {hospital }}$ を用いて患者氏名パターン中の氏名部分を復元しょうとしたと想定し,その実現性を評価した. 状況設定 1 では攻撃者は $\mu_{\text {hospital }}$ 以外に言語資源をもたないため,自然言語生成によって学習データの再現を目指すものとした. 状況設定 2 では攻撃者は $\mathscr{D}_{\text {public }}$ も利用できるため, $\mathscr{D}_{\text {public }}$ の匿名化の解除を目指すものとした。 ## 4.1 自然言語生成による人名推定 Wang らの研究 [25] を参考に, $M_{\text {hospital }}$ を用いたギブスサンプリングによって 10,000 文書を生成し,その集合を $\mathscr{G}$ とした. 手法の詳細は付録 Bを参照されたい. 生成例を以下に示す. 次に,各候補氏名 $l \in \mathscr{L}$ に対し, $l$ の姓または名のうち少なくとも一方が 1 度でも 9 に出現していれば正例,そうでなければ負例と推定した。 ## 4.2 Masked Langauge Model による人名推定 名マスキング箇所に対し, $M_{\text {hospital }}$ を用いた masked language model によって患者氏名を復元させ,その際に高い事後確率が割り当てられる傾向にある姓名が Dprivate に含まれていたものと推測した. まず全患者氏名パターン 158 種に対応する $\mathscr{D}_{\text {public }}$内の記載の集合を $\delta$ とおいた. $\delta$ の要素は“(名の placeholder) (姓の placeholder) is a(n) (年齢) years old (fe)male""から始まる連続した 5 文である。次に, Sの各要素の冒頭の姓名の placeholderをそれぞれ [MASK] トークンに置換し,他の placeholder を削除したものをす'とした。 事前の検討では, $\delta^{\prime}$ の全要素を入力としても精度が得られなかった.そこで,言語モデルを学習モー ドの状態に切り替えて多数回 masked language model の推論を行う方針とし,推論の対象も $\delta^{\prime}$ から重複を許して 10,000 個選んだものの集合 $\mathcal{S}^{\prime \prime}=\left.\{\mathbf{s}_{i}^{\prime \prime}\right.\}_{i=1}^{10000}$ とした。これは言語モデルが推論モードでは同一サンプルに対して同一の出力を返すが,学習モードでは dropout の適用などによって実行毎に異なった事後確率を出力することを利用している. 最後に各候補氏名 $l \in \mathscr{L}$ を,学習モードでの masked language model による事後確率の平均が $M_{\text {general }}$ より $M_{\text {hospital }}$ で高くなる場合に正例と推測した. つまり, $l$ が $\frac{1}{10000} \sum_{i=1}^{10000}\left.\{p\left(l \mid s_{i}^{\prime \prime}, M_{\text {hospital }}\right)-p\left(l \mid s_{i}^{\prime \prime}, M_{\text {general }}\right)\right.\}>0$ をみたせば正例,そうでなければ負例と推測した。 ## 4.3 人名漏洩リスクの評価指標 否かを推測する二値分類であるため,評価指標にはF1 scoreを用いた. 参考のため, Accuracy, Precision, Recall も算出した. ## 5 結果と考察 表 1 に示すように, 自然言語生成は masked language model より高いF1 scoreを示し,負例が Easy Negative,Hard Negative の場合でそれぞれ 0.6542, 0.6052 であった. Masked language model は, 学習データのうち個人情報を除いた一部分を用いたにも関わらず,自然言語生成より低い F1 score となった.表 1 からは,自然言語生成が氏名候補を過大に推定し, masked language model が過小に推定する傾向がみられ,自然言語生成の Recall の高さが F1 score の上昇をもらたしたと思われる。この理由には,まず自然言語生成にギブスサンプリングを用いたことが挙げられる。ギブスサンプリングは互いに独立な 表 1: 学習データ中の患者氏名の推定結果. 表 2: 状況設定 1 において異なる言語モデルを用いた際の患者氏名の推定結果の変化. サンプル点を多数得るための技法であり,結果として語彙中の様々な単語が動員され, 多様な生成結果が得られたものと思われる。一方, masked language model はトークン単位の空所補充であり, 学習時に出力の多様性ではなく正確性を優先させるものであるため,一部の単語にしか高い事後確率を割り当てなかったものと推測される. しかし, 本研究では masked language model は自然言語生成よりも Recall を低下させたのみで,明らかな Precision の上昇をもたらさなかった. 自然言語生成を $M_{\text {general }}$ を用いて行った結果との比較を表 2 に示す. 負例が Easy Negative の場合,つまり正例の姓,名のうち一方が 1 回でも出力されれば自動的に正解となる状況では, $M_{\text {hospital }}$ は $M_{\text {general }}$ より高い性能を示し,特に Accuracy は 0.4885 から 0.5731 に上昇した. しかし, 負例が Hard Negative の場合,つまり正例と姓または名の片方が一致する氏名が負例に必ず存在する状況では, $M_{\text {general }} と$ $M_{\text {hospital }}$ の差は明らかではなかった. なお, 生成された 10,000 文書に, BERT $_{\mathrm{BASE}}$ モデルによって 1 トークンで表現される姓は計 446 回, 名は計 2,911 回出現したが,フルネームつまり「姓+名」の並びは 113 回,そのうち $\mathscr{L}$ の候補と一致するものは 2 回のみであった. よって,少なくとも 10,000 文書を生成した時点では,患者氏名全体がそのまま出力されることは稀であり,姓名のいずれか一方が正しく推測する可能性も限定的と考えられる。ただし,自然言語生成は $M_{\text {hospital }}$ さえあればいくらでも行えるため,さらに多量の文書を生成すると人名漏洩リスクが上昇する可能性はある.以上からは,少なくとも本研究で検討した範囲では,言語モデルを用いてある人名が学習データ中に含まれていたか否かを推定できる可能性は小さいと思われる。理由は,(i) 自然言語生成は masked language model より高い F1 score や Recallを示すが,実際は学習前から限定的にしか変化していない,(ii)攻撃者が学習データのうち個人情報を含まない部分を入手したとしても,今回の検討手法では人名漏洩リスクに明らかな上昇はみられない,の2点である。 本研究の限界は 2 点存在する. 1 点目は, $M_{\text {general }}$ から事前学習を開始したため,患者氏名の推測が $M_{\text {general }}$ と $M_{\text {hospital }}$ のどちらの学習データ中の人名に依拠したか判別しづらい点である.今後は全くの初期状態から $M_{\text {hospital }}$ を事前学習した場合についての検討が有用と思われる. 2 点目は,学習データ中の人名のほとんどは医療従事者の氏名であり,患者氏名はごく一部に過ぎないという,診療記録特有の問題点である。つまり,言語モデルが学習データ中の人名を正しく推定しても,それが患者氏名ではない可能性が高い. すると,言語モデルからの人名漏洩リスクは,対象医療機関の診療記録中の人名に患者氏名が占める割合からも影響を受けると考えられ,本研究結果が全医療機関に一般化できるとは限らなくなる.今後は言語モデルからの個人情報漏洩リスクをより正確に評価するため,これらの限界を考慮したさらなる緻密な実験が必要と考えられる。 ## 6 おわりに 本研究で検討した範囲では,言語モデルから学習データ中の人名が漏洩する可能性は小さいものと推測される。言語モデルからの個人情報漏洩リスクを網羅的に評価するため,さらに現実的な状況設定を対象としながら検討を続けていきたい. ## 参考文献 [1] 日本診療情報管理学会. 診療情報学. 医学書院, 第 2 版, 2015. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Emily Alsentzer, John Murphy, William Boag, Wei-Hung Weng, Di Jindi, Tristan Naumann, and Matthew McDermott. Publicly available clinical BERT embeddings. In Proceedings of the 2nd Clinical Natural Language Processing Workshop, pp. 72-78, Minneapolis, Minnesota, USA, jun 2019. Association for Computational Linguistics. [4] Kexin Huang, Jaan Altosaar, and Rajesh Ranganath. Clinicalbert: Modeling clinical notes and predicting hospital readmission, 2019. [5] Yifan Peng, Shankai Yan, and Zhiyong Lu. Transfer learning in biomedical natural language processing: An evaluation of BERT and ELMo on ten benchmarking datasets. In Proceedings of the 18th BioNLP Workshop and Shared Task, pp. 58-65, Florence, Italy, August 2019. Association for Computational Linguistics. [6] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed with huge size of japanese clinical narrative. medRxiv, 2020. [7] Alister D’Costa, Stefan Denkovski, Michal Malyska, Sae Young Moon, Brandon Rufino, Zhen Yang, Taylor Killian, and Marzyeh Ghassemi. Multiple sclerosis severity classification from clinical text. In Proceedings of the 3 rd Clinical Natural Language Processing Workshop, pp. 7-23, Online, November 2020. Association for Computational Linguistics. [8] Fei Li, Yonghao Jin, Weisong Liu, Bhanu Pratap Singh Rawat, Pengshan Cai, and Hong Yu. Fine-Tuning Bidirectional Encoder Representations From Transformers (BERT)-Based Models on Large-Scale Electronic Health Record Notes: An Empirical Study. JMIR Med Inform, Vol. 7, No. 3, p. e14830, Sep 2019. [9] Yen-Pin Chen, Yi-Ying Chen, Jr-Jiun Lin, Chien-Hua Huang, and Feipei Lai. Modified Bidirectional Encoder Representations From Transformers Extractive Summarization Model for Hospital Information Systems Based on Character-Level Tokens (AlphaBERT): Development and Performance Evaluation. JMIR Med Inform, Vol. 8, No. 4, p. e17787, Apr 2020. [10] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners, 2019. [11] Nicholas Carlini, Florian Tramer, Eric Wallace, Matthew Jagielski, Ariel Herbert-Voss, Katherine Lee, Adam Roberts, Tom Brown, Dawn Song, Ulfar Erlingsson, Alina Oprea, and Colin Raffel. Extracting training data from large language models, 2020. [12] Yuta Nakamura, Shouhei Hanaoka, Yukihiro Nomura, Naoto Hayashi, Osamu Abe, Shuntaro Yada, Shoko Wakamiya, and Eiji Aramaki. KART: Privacy leakage framework of language models pre-trained with clinical records. 2020. [13] Bradley Malin, David Karp, and Richard H. Scheuermann. Technical and policy approaches to balancing patient privacy and data sharing in clinical and translational research. J. Investig. Med., Vol. 58, No. 1, pp. 11-18, Jan 2010. [14] The United States Department of Health and Human Services. Guidance on de-identification of protected health information. https://www.hhs. gov/sites/default/files/ocr/privacy/ hipaa/understanding/coveredentities/ De-identification/hhs_deid_guidance. pdf, Nov 2012. [15] Ligeng Zhu, Zhijian Liu, and Song Han. Deep leakage from gradients. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32, pp. 14774-14784. Curran Associates, Inc., 2019. [16] Congzheng Song and Ananth Raghunathan. Information leakage in embedding models, 2020. [17] Xudong Pan, Mi Zhang, Shouling Ji, and Min Yang. Privacy risks of general-purpose language models. In 2020 IEEE Symposium on Security and Privacy (SP), pp. 14711488, Los Alamitos, CA, USA, may 2020. IEEE Computer Society. [18] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding with unsupervised learning, 2018. [19] Vedant Misra. Black box attacks on transformer language models. In ICLR 2019 Debugging Machine Learning Models Workshop, 2019. [20] Sorami Hisamoto, Matt Post, and Kevin Duh. Membership inference attacks on sequence-to-sequence models: Is my data in your machine translation system? Transactions of the Association for Computational Linguistics, Vol. 8, pp. 49-63, 2020. [21] Felix A. Gers, Jürgen A. Schmidhuber, and Fred A. Cummins. Learning to forget: Continual prediction with lstm. Neural Comput., Vol. 12, No. 10, p. 2451-2471, October 2000. [22] Nicholas Carlini, Chang Liu, Úlfar Erlingsson, Jernej Kos, and Dawn Song. The secret sharer: Evaluating and testing unintended memorization in neural networks. In 28th USENIX Security Symposium (USENIX Security 19), pp. 267-284, Santa Clara, CA, aug 2019. USENIX Association. [23] Alistair E. W. Johnson, Tom J. Pollard, Lu Shen, Li-wei H. Lehman, Mengling Feng, Mohammad Ghassemi, Benjamin Moody, Peter Szolovits, Leo Anthony Celi, and Roger G. Mark. MIMIC-III, a freely accessible critical care database. Sci Data, Vol. 3, p. 160035, May 2016. [24] Ozlem Uzuner, Yuan Luo, and Peter Szolovits. Evaluating the state-of-the-art in automatic de-identification. $J \mathrm{Am}$ Med Inform Assoc, Vol. 14, No. 5, pp. 550-563, 2007. [25] Alex Wang and Kyunghyun Cho. BERT has a mouth, and it must speak: BERT as a Markov random field language model. In Proceedings of the Workshop on Methods for Optimizing and Evaluating Neural Language Generation, pp. 30-36, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. ## A 患者氏名パターンに関する統計 正例である 130 種の患者氏名が, $\mathscr{D}_{\text {private }}$ の 158 種の患者氏名パターン中に計 232 回出現した. 表 3 に示すように, 同一の患者氏名が学習データ Dprivate 中に最大 4 種類の異なる複数種の患者氏名パターンとして出現している. また,同一の患者氏名パター ンが複数回繰り返し出現することもあり, 結果として患者氏名ごとの患者氏名パターン総出現回数も 1 回から 25 回とさまざまであった (表 4). 表 3: 患者氏名パターンの重複を除いた個数ごとの正例の個数. & 正例数 \\ 3 種類 & 3 \\ 2 種類 & 10 \\ 1 種類 & 113 \\ 表 4: 患者氏名パターン総出現回数ごとの正例の個数. & 正例数 \\ 11 回 & 1 \\ 7 回 & 2 \\ 6 回 & 1 \\ 5 回 & 3 \\ 4 回 & 4 \\ 3 回 & 6 \\ 2 回 & 15 \\ 1 回 & 97 \\ ## B 自然言語生成手法の詳細 まず [MASK] トークンを含んだ Lトークン長の入力文 $\mathbf{x}^{(0)}=\left(x_{1}^{(0)}, \ldots, x_{L}^{(0)}\right)$ を用意し,次に $t=0, \ldots, T-1$ に対し, $\mathbf{x}^{(t)}$ 内のある 1 トークン $x_{i^{(t)}}^{(t)}$ を別単語に置換して $\mathbf{x}^{(t+1)}$ を得た. ただし $i^{(t)}$ は $x_{i^{(t)}}^{(0)}$ が [MASK] トークンであるように無作為に選んだ。これを繰り返して最後に得た $\mathbf{x}^{(T)}$ を生成結果とした. 単語の置換の際には,まず $\mathbf{x}^{(t)}$ を入力とする masked language model が位置 $i^{(t)}$ に高いロジットを与えた上位 $k$ 単語を BERT 辞書の語彙全体から選んで $v_{1}^{(t)}, \ldots, v_{k}^{(t)}$ とし, 次に $v_{j}^{(t)}$ に確率 $\frac{\exp \left(q_{j}^{(t)} / \alpha\right)}{\sum_{m=1}^{k} \exp \left(q_{m}^{(t)} / \alpha\right)}$ を割り当てるようなカテゴリカル分布を用いて置換先の単語を $\left.\{v_{j}^{(t)}\right.\}_{j=1}^{k}$ から無作為に 1 つ選んだ. ただし $q_{j}^{(t)}$ は $v_{j}^{(t)}$ に対する masked language model の口ジット, $\alpha$ は温度パラメータである. 本研究では $\mathbf{x}^{(0)}$ として文 “[CLS] Service: [MASK] [MASK] [MASK] [MASK] [MASK] is a [MASK] year old" の末尾に更に [MASK] トークン 18 個と [SEP] トークンを連結して $L=32$ としたものを用い, $T=500, k=100, \alpha=1.0$ とした.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-13.pdf
# 手順構造を考慮した作業映像からの手順書生成 西村太一 京都大学大学院情報学研究科 nishimura.taichi.43x@st.kyoto-u.ac.jp 牛久祥孝 オムロンサイニックエックス株式会社 yoshitaka.ushiku@sinicx.com 橋本敦史 オムロンサイニックエックス株式会社 atsushi.hashimoto@sinicx.com 亀甲博貴 京都大学 学術情報メディアセンター kameko@i.kyoto-u.ac.jp 森信介 京都大学 学術情報メディアセンター forest@i.kyoto-u.ac.jp ## 1 はじめに 手順書は,料理や科学実験などの一連の手続きを自然言語で記述した文書である。手順書を作業映像から自動的に生成できるようになれば,作業者が作業内容を検証したり,同じ結果を再現したりする上で有用である. 本研究では,作業映像から手順書を生成することを目的とする. 正しく手順書を生成するためには,モデルは単に映像の情景を記述するのではなく,人が読んで作業を実施できるような一貫性を持った文を生成することが要求される. そのためには,材料や動作の依存関係を捉えること,つまり,(1) 動作や材料の順番が正しく,(2)ある手順の動作後の状態をもとに次の手順文を生成することが重要である. 我々は,材料や動作の依存関係を木構造をはじめとするグラフ構造で表現することで $[1,2,3]$, 前述した要件を満たすモデル化が可能になると考えている.こうした構造を手順構造と呼び,図 1 にその一例を示す. この例では, 手順 1 でトマトが切られ,手順 2 においてかぼちゃが切られ炒められる. こうして得られた切ったトマト, 炒められたかぼちゃが手順 $1 , 2$ のノードにそれぞれ対応し,次に手順 3 で使われることを示している.以前の我々の研究では,動画ではなく写真列を対象に,同様の手順構造の半教師ありで学習しつつ,手順書を生成するモデルを提案した [2]. 本研究では,このアイデアを動画列へ拡張し,かつ教師なしで手順構造をモデル化することで,一貫性のある手順書を生成する手法を提案する。 図 1 物体と動作の依存関係を表現した木構造. 実験では,映像から文を生成する従来手法と比較して文の自動評価尺度において性能が向上したこと,また,定性的評価において提案手法がある程度構造を考慮しつつ文を生成できていることを示した. ## 2 関連研究 画像や映像といった視覚情報から手順書を生成する研究が近年活発に行われている。手順書の中でも,料理ドメインは Web 上で大量にデータを集めやすく,動作や材料が多様であるため,特に注目を集めている.こうした研究の先駆けとして,Salvador ら [4] は完成写真からタイトル,材料リスト,レシピをまとめて生成する手法を提案した. その後, Chandu ら [5], Nishimura ら [6] は,1 枚の完成画像ではなく,複数枚の作業途中の写真列からレシピを (1) 入カをエンコード (2) 手順構造を考慮した手順べクトルの計算 図 2 提案手法の概要図. 生成する課題と手法を提案した。作業映像から手順書を生成する研究も行われている. Shi ら [7] は作業映像と, 映像中の音声の書き起こしを入力にして手順書を生成する手法を提案している。 また,手順書の理解に向けて,材料や動作の依存関係をグラフで構造的に表現する研究も行われてきた $[1,2,3]$. 近年ではこれを拡張し, 手順書に付与された画像情報も活用してマルチモーダルに木構造で表現する取り組みも行われている $[2,8]$. 本研究ではこの木構造の手順構造を教師なしで,入力の作業映像から獲得しつつ,手順書を生成する手法を提案する。 ## 3 提案手法 提案手法は大きく分けて 3 つのプロセスからなる.(1)まず,最初に動画列と材料リストをエンコー ドし,動画,材料のベクトル表現を獲得する.(2) 次に,手順構造を獲得するために,得られた動画,材料べクトルから材料-手順隣接行列, 手順-手順隣接行列を計算する. 計算した隣接行列を用いて, 手順ベクトルを計算する。 (3) 最後に,計算した手順べクトルを入力に手順書の各手順文を生成する. ## 3.1 入力のエンコード 動画列のエンコード.動画列をエンコードするために,動画列の各動画の先頭にエンコードを意味す る [ENC] ラベルを結合して Transformer [9]を用いてエンコードする.そして,[ENC] ラベルに対応するベクトルを動画ベクトルとして得る.次に,動画列の時系列情報を考慮するために,各動画ベクトルを別の Transformer へ入力し,動画列の時系列情報を考慮した動画ベクトル $Z_{v}=\left(z_{v}^{1}, z_{v}^{2}, \ldots, z_{v}^{N}\right)$ を得る. ここで, $N$ は動画列に含まれる動画数である. 材料リストのエンコード. 各材料を単語の分散表現に変換した後,材料リスト内の関係を考慮するため, Transformerを用いて材料べクトル $Z_{g}=\left(z_{g}^{1}, z_{g}^{2}, \ldots, z_{g}^{M}\right)$ を得る.ここで, $M$ は材料リストに含まれる材料数である. ## 3.2 手順構造を考慮した手順ベクトルの 計算 (2.1) 手順構造の計算. 得られた動画べクトル,材料べクトルを用いて手順構造を計算する. 節 1 で述べた通り, 手順構造は木構造として表現することができ,これは材料がどの手順へ接続するか, ある手順がどの手順へ接続するのかを材料-手順,手順-手順の隣接行列を計算することで得られる.本研究では,この 2 つの行列計算をマルチヘッドアテンションとして定式化する。まず,材料べクトル,動画ベクトルから各へッドごとの材料ベクトル $\boldsymbol{Z}_{\boldsymbol{h}, \boldsymbol{g}}=\left(z_{h, g}^{1}, z_{h, g}^{2}, \ldots, z_{h, g}^{M}\right) \in \mathbb{R}^{|\boldsymbol{h}| \times M \times d_{h}}$, 動画ベクトル $\boldsymbol{Z}_{\boldsymbol{h}, \boldsymbol{v}}=\left(z_{h, v}^{1}, z_{h, v}^{2}, \ldots, z_{h, v}^{N}\right) \in \mathbb{R}^{|\boldsymbol{h}| \times N \times d_{h}}$ を得て, 材料-手順 $P_{i, j}^{i n g r} \in \mathbb{R}^{|\boldsymbol{h}| \times M \times N}$, 手順-手順行列 $P_{i, j}^{i n s t} \in \mathbb{R}^{|\boldsymbol{h}| \times N \times N}$ を以下のように計算する. $ \begin{aligned} P_{i, j}^{\text {ingr }} & =\operatorname{Softmax}\left(\frac{\boldsymbol{Z}_{h, g}^{Q}\left(\boldsymbol{Z}_{h, v}^{K}\right)^{T}}{\sqrt{d_{h}}}\right) \\ P_{i, j}^{\text {inst }} & =\operatorname{Softmax}\left(\frac{\boldsymbol{Z}_{h, v}^{Q}\left(\dot{\boldsymbol{Z}}_{h, v}^{K}\right)^{T}}{\sqrt{d_{h}}}\right) \end{aligned} $ ここで, $\boldsymbol{Z}_{h, g}^{Q}, \boldsymbol{Z}_{h, v}^{K}, \boldsymbol{Z}_{h, v}^{Q}, \dot{\boldsymbol{Z}}_{h, v}^{K}$ はそれぞれ別の 1 層の線型結合層で変換されたべクトルである. 計算した材料-手順隣接行列 $P_{i, j}^{i n g r}$ では, $i$ 番目の材料が $j$番目の手順に接続する確率を, 手順-手順隣接行列 $P_{i, j}^{i n s t}$ は, $i$ 番目の手順が $j$ 番目の手順に接続する確 の手順に遡って繋がらないという仮定のもと, $i \geq j$番目の要素には非常に小さい值 $\epsilon\left(=1.0 \times 10^{-5}\right)$ が挿入されている. (2.2) 手順ベクトルの計算. 次に,得られた隣接行列を用いて,各手順に対応するべクトルを計算する. $P_{i, j}^{i n g r}$ の $j$ 列目は $j$ 番目の手順で使われる材料の重みが, $P_{i, j}^{i n s t}$ の $j$ 列目は $j$ 番目の手順と依存関係にある手順の重みが計算されているとみなすことができる. よって,$j$ 番目の手順における各材料, 手順の隣接行列の重みと, 材料, 動画ベクトルを掛け合わせることによって, $j$ 番目の手順での材料と動画の重要度を加味したべクトルを得ることができる. 具体的には,材料,動画ベクトルを 1 層の線型結合層で変換したべクトル $\boldsymbol{Z}_{h, g}^{V}, \boldsymbol{Z}_{h, v}^{V}$ と, $P_{i, j}^{i n g r}, P_{i, j}^{i n s t}$ の $j$ 列目を用いて, $j$ 手順目と関係のある材料ベクトル,動画ベクトルを得る. $ \begin{aligned} Z_{h, g}^{j} & =\left[P_{1, j}^{i n g r} z_{h, g}^{V, 1}, P_{2, j}^{i n g r} z_{h, g}^{V, 2}, \ldots, P_{M, j}^{i n g r} z_{h, g}^{V, M}\right] \\ Z_{h, v}^{j} & =\left[P_{1, j}^{i n s t} z_{h, v}^{V, 1}, P_{2, j}^{i n s t} z_{h, v}^{V, 2}, \ldots, P_{N, j}^{i n s t} z_{h, v}^{V, N}\right] \end{aligned} $ ここで,[$\cdot$] はベクトルの結合を表す.こうして得られるベクトルの各ヘッドのベクトルを結合し, $j$ 番目の動画ベクトル $z_{v}^{j}$ を結合することによって,手順書を生成するのに必要な $j$ 番目の手順べクトル $z_{s}^{j}$ を計算する. ## 3.3 手順書の生成 最後に,得られた手順べクトルから対応する手順文を生成し,それらを結合することで手順書を得る. 手順書を $\boldsymbol{Y}=\left(\boldsymbol{y}_{1}, \boldsymbol{y}_{2}, \ldots, \boldsymbol{y}_{N}\right)$ とし, 各 $\boldsymbol{y}_{j}$ は手順文を表すとする.この時,損失関数 $L$ は全ての動画列と手順書のペアからなるデータセット $D$ に対し表 1 YouCook2 材料データセットの統計情報. て,以下の負の対数尤度が最小となるように計算を行う. $ L(\boldsymbol{\theta})=-\sum_{D} \sum_{j} \log p\left(\boldsymbol{y}_{j} \mid \boldsymbol{z}_{s}^{j} ; \boldsymbol{\theta}\right) $ ここで, $\theta$ はモデル全体のパラメータを表す。また,デコーダには Transformer を用いる。 ## 4 実験 ## 4.1 実験設定 データセット. 作業映像と手順書のデータセットとして YouCook2 [10]を利用した. YouCook2 は作業映像に対し, 手順書の各手順に対応する区間がアノテーションされたデータセットである. 本研究では,この区間を抽出することで,各手順に対応する動画列を作成している. YouCook2 には材料のアノテーションが行われていないため,材料のアノテー ションを 3 人のアノテータを介して行なった。アノテーションの結果得られたデータを YouCook2 と併せて, 本研究では YouCook2 材料データセットと呼ぶこととする。データセットの統計情報を表 1 に示す.なお,YouCook2 ではテストセットは公開されていないため,材料のアノテーションは行っていない. 以後の実験結果は全て検証セットで評価されたものである. 比較モデル. 本研究と比較するモデルとして,同じくTransformer ベースで動画列から文章を生成するモデルである Transformer-XL [11],MART [12] を用意した. 元々のモデルは材料を入力としていないため,提案手法との公平な比較のために,提案手法と同様に材料リストをエンコードした後,入力の動画ベクトルと結合してモデルを学習させた. また,提案手法の中でどの要素が効果があったのかを調べるために,提案手法から要素を除いたモデルも学習して比較した. ## 4.2 定量的評価 文の自動評価尺度である BLEU [13], METEOR [14],CIDEr-D [15] を用いて生成した手順書を評価した,表 2 に評価した結果を示す,全ての評価尺度 図 3 手順書の生成結果. 手順構造の予測結果はヘッドの平均值で計算されたものである. また,可視化した手順構造は隣接行列の各行で最大の值をサンプリングすることで得られたものである. 表 2 文の自動評価尺度による評価. 最も性能が高いものは太字に,次に性能が高いものには下線を引いている。 において,既存モデルと比較して提案手法が最も高い性能を示した. 中でも,材料-手順のみが BLEU1, BLEU4,METEOR において最も高い性能を示しており,材料-手順の隣接行列を計算することが有効であることが分かる。一方,手順-手順のみのモデルは,動画のみのモデルに比べ性能は向上している.しかし,全てを組み込んだ両方のモデルでは CIDEr-Dを除いて材料-手順のみのモデルより悪化する結果となっており, 材料-手順と手順-手順の依存関係を同時に考慮する方法については未だ検討が必要である. ## 4.3 定性的評価 図 3 に提案手法が生成した手順書,正解の手順書,及び手順構造の予測結果を示す. 提案手法はある程度正しく生成できた手順もある一方で (手順 1 ,手順 6),誤った材料や動作の記述があるものも見られる (手順 2, 手順 3). 手順構造の予測結果を可視化すると,手順-手順の依存関係はある程度正しく捉えられているが,材料-手順については正しく予測できなかった. その結果,異なる手順で異なる材料を使用して手順書を生成していると考えられる。 このことから,手順構造を正しく計算しつつ,手順書の生成に効果的に反映させるようにモデルを改善することを検討している。 ## 5 おわりに 本研究では,作業映像から手順書を生成する課題に取り組んだ。正しく手順書を生成するためには,材料と動作の依存関係をモデルが理解する必要がある. 本研究では,こうした材料と動作の依存関係を木構造として明示的に表現しつつ,文生成モデルに組み込むことで正しく手順書を生成する手法を提案した. 実験では,文の自動評価尺度による評価と定性的評価を行い,既存の文生成手法と比較して正しく手順書を生成できていることを確認した. 今後は検証セットに手順構造のアノテーションし,モデルの予測結果がどの程度一致するのか調査する。また,手順書の一貫性をより詳しく評価するために,人手評価および別の評価尺度を検討する。 ## 参考文献 [1]Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow graph corpus from recipe texts. In $L R E C$, 2014. [2]Taichi Nishimura, Atsushi Hashimoto, Yoshitaka Ushiku, Hirotaka Kameko, Yoko Yamakata, and Shinsuke Mori. Structure-aware procedural text generation from an image sequence. IEEE Access, 2020. [3]Chloé Kiddon, Ganesa Thandavam Ponnuraj, Luke Zettlemoyer, and Yejin Choi. Mise en place: Unsupervised interpretation of instructional recipes. In $E M N L P, 2015$. [4]Amaia Salvador, Michal Drozdzal, Xavier Giro i Nieto, and Adriana Romero. Inverse cooking: Recipe generation from food images. In CVPR, 2019. [5]Khyathi Chandu, Eric Nyberg, and Alan W Black. Storyboarding of recipes: Grounded contextual generation. In $A C L, 2019$. [6]Taichi Nishimura, Atsushi Hashimoto, and Shinsuke Mori. Procedural text generation from a photo sequence. In $I N L G$, 2019. [7]Botian Shi, Lei Ji, Yaobo Liang, Nan Duan, Peng Chen, Zhendong Niu, and Ming Zhou. Dense procedure captioning in narrated instructional videos. In $A C L, 2019$. [8]Pan Liang-Ming, Chen Jingjing, Wu Jianlong, Liu Shaoteng, Ngo Chong-Wah, Kan Min-Yen, Jiang Yugang, and Chua Tat-Seng. Multi-modal cooking workflow construction for food recipes. In ACMMM, 2020. [9]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, 2017. [10]Luowei Zhou, Chenliang Xu, and Jason J. Corso. Towards automatic learning of procedures from web instructional videos. In AAAI, 2018. [11]Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. In $A C L$, 2019. [12]Jie Lei, Liwei Wang, Yelong Shen, Dong Yu, Tamara Berg, and Mohit Bansal. Mart: Memory-augmented recurrent transformer for coherent video paragraph captioning. In $A C L$, 2020. [13]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A method for automatic evaluation of machine translation. In $A C L, 2002$. [14]Satanjeev Banerjee and Alon Lavie. Meteor: an automatic metric for MT evaluation with improved correlation with human judgments. In ACL Workshop IEEMMTS, 2005. [15]Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-14.pdf
# 手順構造を考慮した手順書からの作業画像検索 迫田航次郎 京都大学大学院情報学研究科 sakoda.kojiro.48z@st.kyoto-u.ac.jp 西村太一 京都大学大学院情報学研究科 nishimura.taichi.43x@st.kyoto-u.ac.jp 森信介 京都大学学術情報メディアセンター forest@i.kyoto-u.ac.jp ## 1 はじめに ある手順書に基づいて作業を行う場合,手順書に記されている文章だけでなく,その手順における物体の状態を写した画像を共に参照することで作業者は手順を再現しやすくなる。本研究では手順書を入力として,各手順に対応する画像を検索することを目的とする (図 1). 手順書から作業画像を検索するためには,モデルは単に対応する手順の内容だけでなく, 過去の手順で使用した材料や動作との因果関係も考慮する必要がある,我々は,この因果関係を木構造をはじめとするグラフ構造で表現することができる $[1,2,3]$.本研究ではこうした構造を手順構造と呼び,図 1 にその一例を示す.この例では,手順書の (1) で材料リストにあるアスパラガスとじゃがいもを茹で,(2) でそれらを皿に並べている。(4)では (2) の結果と (3) で刻んだチーズを合わせてオーブンで加熱している。手順構造はこれらの手順間の因果関係を表現しており,各材料が手順構造の葉に,各手順が節点に対応している. 本研究では,手順書と,材料リスト,そして手順構造を入力として与え,手順構造を効率よく学習しつつ作業画像を検索する手法を提案する。 実験では,手順構造を考慮しない従来の画像検索モデルと比較して画像検索性能が向上したことが分かった. また,実際に検索した結果をもとに,手順構造を考慮することの有用性を示した。 ## 2 関連研究 手順書とその実施映像を対象とした研究は近年活発に行われている。中でも,料理ドメインは Web 上でデータを集めやすく,材料や動作の種類が豊富 図 1 本研究の課題概要. 手順書,材料リスト,手順構造を入力として,手順書の各手順に対応する作業画像を検索する。 であるため注目を集めている。本研究で利用する Cookpad Image Dataset [4] は約 170 万のレシピ,画像列,材料リストを含む世界最大規模のマルチモーダルデータセットである. こうした大規模なデータセットを活用して,レシピとその実施映像との間で共通の表現を学習する研究も行われている. Salvador ら [5] は,テキスト側の入力として手順と材料を,画像の入力としてレシピの完成画像をそれぞれエンコードし,共有潜在空間を学習することで,レシピから完成画像を検索する手法を提案した。 しかし,材料と動作の因果関係を考慮しつつ検索を行うような研究は未だ十分に取り組まれてはいない. レシピの内容をコンピュータが理解するために,こうした関係を手順構造で表現する取り組みも行われている $[1,2]$. さらに,近年では,手順構造を画像付きで理解する試みも行われており,そのためのマルチモーダルデータセットとして,VSIMMR [3] というデータセットも提案されている. 本研究では,VSIMMR データセットを用いて,材料と動作の因果関係を考慮しつつ,手順書の各手順に対応する 図 2 従来の画像検索モデル (ベースラインモデル).画像を検索する手法を提案する。 ## 3 作業画像の検索モデル 図 2 に従来の画像検索モデル (ベースラインモデル)の, 図 3 に提案手法モデルの概要を示す. また,以下の節でそれぞれのモデルについて説明する。 ## 3.1 ベースラインモデル ベースラインモデルは 3 つの処理に分けることができる. (i) で手順列を入力に,LSTMを用いて手順書の時系列情報を考慮した特徵べクトルを得る。 (ii) で画像列を入力に,全結合層を用いることで画像の特徴べクトルを得る. 最後に, (iii) で (i) と (ii) で得られた手順と画像の特徴べクトルを 3 層の全結合層により共有潜在空間上に埋め込む. (i) 手順列の入力 : 手順列の入力部は 1 層の LSTM と 2 層の全結合層からなる. まず,各手順を構成する単語を word2vec を用いて分散表現に変換し,その平均を手順べクトル列 $T=\left(t_{1}, t_{2}, \ldots, t_{k}, \ldots, t_{K}\right)$ として得る. 次に,手順ベクトル列をLSTM に入力し, 手順書の時系列情報を考慮した手順ベクトル列 $H=\left(h_{1}, h_{2}, \ldots, h_{k}, \ldots, h_{K}\right)$ を以下のように計算して得る. $ \begin{aligned} \boldsymbol{i}_{\boldsymbol{k}} & =\sigma\left(\boldsymbol{W}^{(i)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(i)} \boldsymbol{h}_{\boldsymbol{k}-1}+\boldsymbol{b}^{(i)}\right) \\ \boldsymbol{f}_{\boldsymbol{k}} & =\sigma\left(\boldsymbol{W}^{(f)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(f)} \boldsymbol{h}_{\boldsymbol{k - 1}}+\boldsymbol{b}^{(f)}\right) \\ \boldsymbol{o}_{\boldsymbol{k}} & =\sigma\left(\boldsymbol{W}^{(o)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(o)} \boldsymbol{h}_{\boldsymbol{k}-\mathbf{1}}+\boldsymbol{b}^{(o)}\right) \\ \boldsymbol{u}_{\boldsymbol{k}} & =\tanh \left(\boldsymbol{W}^{(u)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(u)} \boldsymbol{h}_{\boldsymbol{k}-\mathbf{1}}+\boldsymbol{b}^{(u)}\right) \\ \boldsymbol{c}_{\boldsymbol{k}} & =\boldsymbol{i}_{\boldsymbol{k}} \odot \boldsymbol{u}_{\boldsymbol{k}}+\boldsymbol{f}_{\boldsymbol{k}} \odot \boldsymbol{c}_{\boldsymbol{k - 1}} \\ \boldsymbol{h}_{\boldsymbol{k}} & =\boldsymbol{o}_{\boldsymbol{k}} \odot \tanh \left(\boldsymbol{c}_{\boldsymbol{k}}\right) \end{aligned} $ 次に, LSTM の出力を 2 層の全結合層に入力し, 共有潜在空間上の手順べクトル列 $S=$ $\left(s_{1}, s_{2}, \ldots, s_{k}, \ldots, s_{K}\right)$ を得る. 図 3 提案手法モデル. (ii) 画像列の入力 : 画像列の入力部は ResNet50 [6] と 3 層の全結合層からなる. まず,画像列の各画像を ImageNet [7] で学習済の ResNet50を用いて分散表現 $\boldsymbol{I}=\left(\boldsymbol{i}_{1}, \boldsymbol{i}_{2}, \ldots, \boldsymbol{i}_{k}, \ldots, \boldsymbol{i}_{\boldsymbol{K}}\right)$ に変換し,全結合層に入力することで,共有潜在空間上の画像列ベクトル $V=\left(v_{1}, v_{2}, \ldots, v_{k}, \ldots, v_{K}\right)$ を得る. (iii) 共有潜在空間の学習: Triplet margin loss [8] を用いて, 手順と画像の共有潜在空間を学習する. Triplet margin loss は基準となるべクトル $\boldsymbol{a}$ ,正例べクトル $\boldsymbol{p}$ ,負例べクトル $\boldsymbol{n}$ を用いて以下のように書ける. $ L=\max (0, d(\boldsymbol{a}, \boldsymbol{p})-d(\boldsymbol{a}, \boldsymbol{n})+\epsilon) $ なお, $d(\cdot)$ は 2 つのべクトルのユークリッド距離を表し, $\epsilon$ はハイパーパラメータである. 本研究では,手順を基準として得られる 3 つ組 $\left(\boldsymbol{s}^{\mathrm{a}}, \boldsymbol{v}^{\mathrm{p}}, \boldsymbol{v}^{\mathrm{n}}\right)$ ,画像を基準として得られる 3 つ組 $\left(\boldsymbol{v}^{\mathrm{a}}, \boldsymbol{s}^{\mathrm{p}}, \boldsymbol{s}^{\mathrm{n}}\right)$ を用いて,それぞれの基準での損失 $L_{s 2 v}, L_{v 2 s}$ を計算する. そして, 2 つの損失の和 $L_{\text {triplet }}$ を最小化するようにモデルを学習する. ## 3.2 提案手法 提案手法のモデルもベースラインモデルと同様の 3 つの処理からなる. ベースラインモデルからの拡張点は,手順構造を考慮するために,(i) において LSTM を Tree-LSTM [9] に変更したことである. (ii) と (iii) に関してはベースラインモデルと同様であるため,以下で (i) の処理に焦点を当てて説明をする。 (i) の拡張箇所は 1 層の Tree-LSTM と 2 層の全結合層からなる。まず,手順構造の節点となる手順書の各手順ベクトルをベースラインモデルと同様に計算する. また,手順構造の葉となる材料べクトル $G=\left(g_{1}, g_{2}, \ldots, g_{n}, \ldots, g_{N}\right)$ も同様の処理で計算する. こうして得られる手順,材料べクトルおよび手順構 表 1 Cookpad Image Dataset の統計情報. 造を Tree-LSTM へ入力する。 $k$ 番目の手順ベクトル $\boldsymbol{t}_{\boldsymbol{k}}$ と $k$ 番目の節に接続している子の集合 $C(k)$ を用いて,以下のように $k$ 番目の隠れ層 $\boldsymbol{h}_{\boldsymbol{k}}$ とメモリセル $c_{k}$ を更新する。 $ \begin{aligned} \hat{\boldsymbol{h}}_{\boldsymbol{k}} & =\sum_{j \in C(k)} \boldsymbol{h}_{\boldsymbol{j}}^{\boldsymbol{k}} \\ \boldsymbol{i}_{\boldsymbol{k}} & =\sigma\left(\boldsymbol{W}^{(i)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(i)} \hat{\boldsymbol{h}}_{\boldsymbol{k}}+\boldsymbol{b}^{(i)}\right) \\ \boldsymbol{f}_{\boldsymbol{k} \boldsymbol{j}} & =\sigma\left(\boldsymbol{W}^{(f)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(f)} \hat{\boldsymbol{h}}_{\boldsymbol{k}}+\boldsymbol{b}^{(f)}\right) \\ \boldsymbol{o}_{\boldsymbol{k}} & =\sigma\left(\boldsymbol{W}^{(o)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(o)} \hat{\boldsymbol{h}}_{\boldsymbol{k}}+\boldsymbol{b}^{(o)}\right) \\ \boldsymbol{u}_{\boldsymbol{k}} & =\tanh \left(\boldsymbol{W}^{(u)} \boldsymbol{t}_{\boldsymbol{k}}+\boldsymbol{U}^{(u)} \hat{\boldsymbol{h}}_{\boldsymbol{k}}+\boldsymbol{b}^{(u)}\right) \\ \boldsymbol{c}_{\boldsymbol{k}} & =\boldsymbol{i}_{\boldsymbol{k}} \odot \boldsymbol{u}_{\boldsymbol{k}}+\sum_{j \in C(k)} \boldsymbol{f}_{\boldsymbol{k} \boldsymbol{j}} \odot \boldsymbol{c}_{\boldsymbol{j}} \\ \boldsymbol{h}_{\boldsymbol{k}} & =\boldsymbol{o}_{\boldsymbol{k}} \odot \tanh \left(\boldsymbol{c}_{\boldsymbol{k}}\right) \end{aligned} $ ## 4 実験 まず,ベースラインモデル,提案手法を用いて画像検索の性能を定量的に評価した. 次に, 手順構造を考慮することの有用性を示すために,実際の検索結果を用いて定性的評価を行なった。 ## 4.1 データセット 本研究では, Cookpad Image Dataset, vSIMMR の 2 つのデータセットを用いて実験を行なった. Cookpad Image Dataset は,レシピ,材料のリスト,レシピの各手順に対応する画像からなるデータセットである. Cookpad Image Dataset のレシピの中には,全ての手順に写真が付与されていないものも存在する. 本研究では,そうしたレシピを除き,全ての手順に写真が付与しているレシピのみを用いた. 表 1 に Cookpad Image Dataset の統計情報を示す. vSIMMR は,Cookpad Image Dataset の一部に手順構造を人手でアノテーションしたデータセットである.このデータセットは, Cookpad Image Dataset のレシピから,全ての手順に写真がついており,かつ材料数と手順数が 3 以上のものを取り出し,その一表 2 vSIMMR の統計情報. 部に木構造のアノテーションが行われたものである. 表 2 にvSIMMR の統計情報を示す. ## 4.2 実験設定 本研究では, word2vec モデルは Cookpad Image Dataset と vSIMMR の訓練データの全レシピを用いて学習した。なお, word $2 \mathrm{vec}$ の出力の次元数は 300 である。画像ベクトルは学習済みの ResNet50 の最終層を取り除いたモデルから得られ, 出力の次元数は 2,048 である. 共有潜在空間の次元数は 512 に設定した。また,バッチサイズは 128 とし,最適化手法には Adam [10]を用いた. また,比較手法としてべースラインモデルの材料リストを用いない場合 (材料なし) に加え,提案手法との公平な比較のために,材料リストも用いた場合 (材料あり)も考えた。(材料なし)では,手順側の入力として手順列のみを用いて学習しており,(材料あり)では,手順側の入力として手順書の各手順べクトルに材料べクトルの平均を連結し学習している. ## 4.3 定量的評価 ## 4.3.1 評価尺度 画像検索の性能を評価するために,1,000 の手順に対する Recall@K (R@K) と Median rank (medR)を計算した. $\mathrm{R} @ \mathrm{~K}$ は手順を入力し,得られた画像集合を $\cos$ 類似度で降順にソートした時に手順に対応する画像が上位 $\mathrm{K}$ 番以内に現れる割合, medR は各手順に対応する画像の順位の中央値を示す. ## 4.3.2 結果 結果を表 3 に示す. ベースラインモデルの (材料あり) は用いられる材料を考慮することで検索精度の上昇を期待したが,(2)と (3),(4)と (5)を比較した結果,手順ベクトルに材料ベクトルを単に連結するだけでは検索精度が必ずしも良くなるわけではないことが分かった. ベースラインモデルの (5) と提案手法の (6) を比較すると (6) の結果の方が medR の 表 3 画像検索の評価結果. 図 4 画像検索結果の一例. 値が低く, $\mathrm{R} @ \mathrm{~K}$ の值が高かったことから,手順構造を考慮することで検索精度が良くなることが示され,提案手法の有用性を確認できた。一方で、大量のデータセットで学習されたベースラインモデル (2),(3) と提案手法の (6) の結果を比較すると学習に用いたデータセットが多ければ手順構造を考慮しなくとも検索精度が良くなるなることが分かった。 ## 4.4 定性的評価 レシピを入力して作業画像を検索した結果を図 4 に示す。このレシピでは 2 番目の手順で示されている溶き卵と 3 番目の手順で炒められたちくわが 4 番目の手順で混ぜ合わされるような構造となっている. 提案手法ではこの混ぜ合わされた結果の画像を正確に検索することができており,手順構造を考慮 することが有効であると確認できた。 ## 5 おわりに 本研究では,手順書から作業画像を検索する課題に取り組んだ。手順に対応する画像を正しく検索するためには過去の手順で使用した材料や動作との因果関係をモデルが捉える必要がある.本研究ではこうした関係を表現している手順構造を考慮し,画像検索を行う手法を提案した.実験では,定性的,定量的に評価を行い,ベースラインモデルに比べて提案手法が有用であることを確認した。 今後の課題として,手順構造がアノテーションされていない場合でも,手順構造を予測し,それを考慮しながら画像検索を行える手法へと拡張することを検討する。 ## 参考文献 [1]Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow graph corpus from recipe texts. In $L R E C$, 2014. [2]Jermsak Jermsurawong and Nizar Habash. Predicting the structure of cooking recipes. In EMNLP, 2015. [3]Taichi Nishimura, Atsushi Hashimoto, Yoshitaka Ushiku, Hirotaka Kameko, Yoko Yamakata, and Shinsuke Mori. Structure-aware procedural text generation from an image sequence. IEEE Access, 2020. [4]Jun Harashima, Yuichiro Someya, and Yohei Kikuta. Cookpad image dataset: An image collection as infrastructure for food research. In SIGIR, 2017. [5]Amaia Salvador, Nicholas Hynes, Yusuf Aytar, Javier Marin, Ferda Ofli, Ingmar Weber, and Antonio Torralba. Learning cross-modal embeddings for cooking recipes and food images. In CVPR, 2017. [6]Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, 2016. [7]Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. ImageNet: A large-scale hierarchical image database. In CVPR, 2009. [8]Jiang Wang, Yang Song, Thomas Leung, Chuck Rosenberg, Jingbin Wang, James Philbin, Bo Chen, and Ying Wu. Learning fine-grained image similarity with deep ranking. In CVPR, 2014 [9]Kai Sheng Tai, Richard Socher, and Christopher D. Manning. Improved semantic representations from tree-structured long short-term memory networks. In ACL, 2015. [10]Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-15.pdf
# 国会会議録を利用した議員の発言特性の抽出 有田智也 松井くにお 金沢工業大学工学研究科情報工学専攻 C6000578@planet.kanzawa-it.ac.jp } 概要 本論文では Web 上に公開されている国会会議録を利用し, TF-IDF を用いた議員ごとの発言特性の抽出及びTFIDF 値を用いた議員の関係性分析と, 機械学習を用いて議員の発言を評価した結果を述べる. 機械学習では議員の応答文を学習データとして seq2seq で学習させることで応答文を作成し, 生成された応答文を利用し議員の発言の一貫性 の分析を試みた. 議員の発言をトークン分割する際には, Sentence Piece を利用することで,複合語を考慮しつつ特徵語の抽出ができる. また少数のデータを seq2seq で学習する際には, トークン分割に Sentence Piece を用いることで, トークン分割に MeCabを利用した場合に比べて,より自然で文法的に正しい応答文の作成が可能になり,高品質な関係分析が可能になる. ## 1 はじめに 近年, Apple 社の「Siri」や, Google 社の「Google Assistant」などの, 知能的な対話システムの研究が活発化している。また女子高校生を模した,日本マイクロソフト社の「りんな」や, NTT 先端技術総合研究所が精華町役場と共同で研究している「京町セイ力」など対話システムに,ある特定の個性を持たせようとする研究も活発化している。しかしながら個性的な文章にするために, どの単語が役に立つのか, という研究は積極的になされていない. そこで本研究では個性付与の役に立つ言葉の抽出方法に着目した. 特徴語を抽出する研究として木村ら[1]は TF-IDF を用いて各地方議員の発言から, 議員が重点を置いている政策を抽出しているが,抽出対象は名詞のみであり, 助動詞や助詞などの議員の発言特性を抽出できそうな品詞を利用していない. また大南ら[2]は最大エントロピー法を用いて短命議員と長期議員に特徴的な単語を抽出し, ”っぽい”などの短い個性を表す語の抽出には成功しているが,”であります”といった複数の単語から構成される意味を持つ語(複合語)を抽出することは出来ていない. そこで本研究では複合語での特徴語の抽出, 抽出した特徴語での関係性の分析, 及び複合語でトークン分割した文章を学習させたモデルでの応答文生成の評価を試みた。 ## 2 利用した技術とデータ ## - TF-IDF TF-IDF(TermFrequency-InverseDocument Frequency) とはKaren Sparck Jones(1972)によって提唱された重みづけ手法であり, 2 種類の重みづけ手法を組み合わせることで実現されている.TFでは「ある文章中において出現回数の多い語はより重要な単語」という考え方に基づいて重みづけを試みる. IDFでは「ほかの文章中での出現回数が少ないほど重要な単語」 という考え方に基づいて重みづけを試みる。つまり TF-IDF の値が大きければ大きいほどその文章にとって重要な語である. - SentencePiece SentencePiece[3]とは 2018 年に工藤拓らにより提案された入力文章をサブワードにトークン分割する手法である. SentecePiece では辞書を利用せず,コー パスから教師無し学習で文章をトークン分割するためのモデルを生成し, 文章のトークン分割を行える. SentencePiece で国会会議録を分割した結果の一部を表 1 に示す. 表 1. sentencePiece での分割結果 ## - Seq2Seq Seq2Seq(Sequence to Sequence)[4]とは 2014 年に Ilya Sutskever らによって提案された, 入力された系列を別の系列に変換するモデルである. Seq2seq は Encoder と Decoder の二つの RNN から構成され, Encoder では入力系列を読み込み隠れ層の最後の状態を Decoder に渡す. Decoder では Encoder から与えられた隠れ層をもとに,入力出力終了を表す”<eos>” が現れるまで単語を出力する。RNN の部分を LSTM[5]や GRU[6]にすることで離れた語の依存関 係を学習させることが可能になる. - 国会会議録 話者が明示されている上, 文法的な正しさが保証されているデータとして国会会議録を使用した. デ一タの収集には国立国会図書館が公開している API[7]を用いて, 2012 年から 2019 年までの国会会議録を収集した。その後国会会議録から安倍晋三議員, 麻生太郎議員, 稲田朋美議員, 福島哲郎議員,福島みずほ議員, 蓮舫議員の発言を抽出した。また対話を学習させるためのデータには各議員の発言の内第一文までを利用した。 ## 3 提案手法 図 1 に提案システムの構成を示す. 国会会議録コ ーパスから特定の議員の発言内容を抽出し, 発言デ一タには発言内容をそのまま保存し,対話データには発言内容に加えて他の議員の質問内容を保存する. トークン分割には MeCab[8] と Sentence Piece を用いた. 発言データでは TF-IDF の值を用いて議員ごとの特徴語を抽出する. 対話データでは seq 2 seq を用いて議員ごとの発言内容を学習させる. 図 1 . 提案システムの構成 ## 3.1 TF-IDF を用いた特徴抽出と評価 2012 年 1 月 1 日から 2019 年 12 月 31 日までの安倍晋三議員の発言を MeCab[8]+neologd 辞書でトー クン分割した後に TF-IDF の值が 0.1 以上の単語を抽出した結果を図 2 に示す. 図 2. MeCab で分割したデータでの特徴語 データを MeCab+neologd辞書でトークン分割した場合”わけであります”や”だと思っております”などの複合語は,"わけ/で/あり/ます”や,"だ/と/思っ/て /おり/ます”のように細かく分割され,意味を持つ複合語から単体では意味の伝わらない単位にまで分割されてしまう。 この問題を解決するために本研究では SentencePi eceを用いてトークン分割を試みた. SentencePiece を用いてトークン分割することで,高頻度で現れる語をそのまま利用することが可能になる.そのため”わけであります”などの高頻度で文章中に現れる語を SentencePiece でトークン分割した場合, 複合語である”わけであります”のまま出力される. SentecePiece を用いて安倍晋三議員の文章を分割した後に TFIDF の值を計算して, TF-IDF の值が 0.1 以上の特徴語を抽出した結果を図 3 に示す. 図 3. SentencePiece で分割したデータでの特徴語 トークン分割に SentencePiece を用いることで議員の発言の複合語も議員の特徴語として抽出することが可能になった. SentencePiece と TF-IDF を用いて 2012 2015 年の議員の発言の特徴語を抽出した結果を表 2 に示す. 表 2.2012 2015 年の特徴語 2016 2019 年の議員の特徴語を抽出した結果を表 3 に示す. 黄色で示された部分は 2012 2015 年と 2016 2019 年で共通の特徴語である. 表 3.2016 2019 年の特徴語 次に単語の 2012 2015 年と 2016 2019 年での特徴語の一致率を表 4 に示す. 表 4. 特徵語の一致率 2012 2015 年と 2016 年 2019 年の特徴語一致率を比較すると, 与党議員の安倍晋三議員と麻生太郎議員の特徴語一致率は $0.63,0.5$ と高く特徴語が変化していない.これは質問に答える際に深く言及することを避け, 抽象的な内容で返答したもしくは, 多くの質問に答えているため, 特徴語として特定の名詞が現れにくかったためである. しかし稲田朋美議員は与党議員にも関わらず, 特徴語の一致率が 0.1 である.これは 2016 年に公務員精度改革を担当する国務大臣の職を退き, 防衛大臣の職に就き,答える質問の内容が変化したためである。また野党議員の福山哲郎議員, 蓮舫議員, 福島みずほ議員の特徴語一致率は $0.23,0.03$, 0.3 と小さく, 特徵語が大きく変化していた. これはその時ホットな話題について集中して質問することが多く, その質問した事柄が特徵語として現れためである. ## 3.2 Seq2Seq を用いた応答文生成と評価 2012 年 1 月 1 日から 2019 年 12 月 31 日までの安倍晋三議員の答弁 25,459 件を MeCab+neologd 辞書で分割した後に他議員からの質問を入力, 安倍晋三議員の応答を出力として Seq2Seq で学習させ, 学習済みモデルを作成した。本研究で用いた Seq2Seq の中間層は 256 , 単語埋め込み次元は 300 である. 学習させたモデルに対して, 議員の発言からランダムに選んだものを学習済みモデルに入力し, 生成された応答文を図 4 に示す. 図 4. MeCab で分割したデータを Seq2Seq で学習させたモデルから得られた応答文 $\mathrm{MeCab}$ で分割し,先頭の単語をランダムにサンプリングし,以降の単語を貪欲法でサンプリングすることで生成した応答文の問題は次の 2 つである. ・複合語が細かく分割されるため, 学習することが難しく, 複合語が出力の途中で崩壊してしまう。 ・出力の内容が”これはまさにこれはまさに”のよう にループし文章として成立しない. 複合語をそのまま利用し, 複合語生成の学習を省略させるため, SentecePiece を用いて対話データを分割し, Seq2Seq で学習させた結果を図 5 に示す. 図 5. SentencePiece で分割したデータを Seq2Seq で学習させたモデルから得られた応答文 対話データを SentencePiece でトークン分割し学習させることで, MeCab でトークン分割した場合, $17.7 \%$ で発生していた応答文の崩壊と応答文のルー プを, $6.7 \%$ に減少させることに成功した. 学習させたモデルに, 議員の発言をランダムに 30 件抽出したものを入力し, 生成された応答文に対して, 文法的に正しい応答が生成される確率,自然な応答文が生成される確率, 生成された応答文に TFIDF 上位 30 件の単語がマッチ寸る確率を評価した。 2012 2015 年の評価結果を表 5 亿示す. 表 5.2012 2015 年の応答文の評価 2012 年 2015 年の評価の結果, 自然な応答文が生成される確率は, 与党議員に比べて野党議員の方が平均で $13 \%$ 低かった. これは野党議員の発言内容は様々な分野への質問が多く, 学習が困難であるのに対して, 与党議員の発言内容は回答一辺倒であり,内容に一貫性が生まれ学習しやすかったためである. また応答文に TF-IDF 上位 30 件の単語が含まれる確率は与党議員に比べて福島瑞穂議員を除く野党議員の方が平均で $8 \%$ 低かった. これは与党議員の特徴語に複合語が多く, 複合語の方が名詞に比べて応答文に反映させる余地が多いためである.福島みずほ議員の応答文に含まれる単語が TF-IDF 上位 30 件にマッチする確率が高いのは” の福島みずほです”という応答文が頻繁に生成されたためである. 2016 2019 年の評価結果を表 6 に示す. 表 6.2016 2019 年の応答文の評価 2012 2015 年と 2016 2019 年を比較すると蓮舫議員の応答文の文法的な正しさ, 応答文の自然さ, 応答文が TF-IDF 上位 30 件にマッチ寸る確率が減少している.これは 2012 2015 年に比べて 2016 2019年の方が,より様々な政治的事柄について質問するようになったため, 学習が難しくなったためである. ## 4 おわりに 本論文では,国会会議録を用いて議員の発言特性の分析と抽出を TF-IDを用いた手法と対話モデルを作成する手法で行った. SentencePiece を用いることで複合語の抽出が可能になり, 高品質な個性抽出,応答文生成ができる. ## 参考文献 1. 地方議会会議録コーパスプロジェクト(引用日:2010 年 12 月 20 日)http://local-politics.jp/ 2. 大南勝, 掛谷秀紀. 国会会議録に基づく短命大臣の特徵分析第 2 報. 言語処理学会第 23 回年次大会論文集, pp. 1167-1170,2018 3. Taku Kudo, John Richardson. SentencePiece:A simple and language independent sub word tokenizer and tokenizer for Neural Text Processing. https://arxiv.org/pdf/180806226.pdf 4. Ilya Sutskever, Oriol Vinyals, Quoc V. Le. Sequence to Sequence Learning with Neural Networks https://arxiv.org/abs/1409.3215 5. Sepp Hochreiter, Jurgen Schmidhuber. Long Shortterm Memory. https://www.researchgate.net/publication/13853244_Lon g_Short-term_Memory 6. Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio. Learning Phrase Representations using RNN Encoder- Deocder for Statistical Machine Translation. https://arxiv.org/abs/1406.1078 7. 国会会議録検索システム検索 $\mathrm{API}$ (引用日:2020 年 12 月 20 日) https://kokkai.ndl.go.jp/api.html 8. 工藤拓, 山本薰, 松本裕治. Conditional Random Fields を用いた日本語形態素解析. Applying Conditional RandomFields to Japanese Morphological Analysis. https://ci.nii.ac.jp/naid/110002911717
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-16.pdf
# ツイートされる病気・症状の可視化に向けた症状の事実性解析 安藤翼 香川大学大学院工学研究科 s19g453@stu.kagawa-u.ac.jp ## 1 はじめに 近年,医療分野に自然言語処理を応用する研究 $[1,2,3]$ が注目されている.また,コロナ禍においては,新型コロナウイルス対策に AI 技術を応用する研究組織[4]が設立され, 一般社会からも注目を浴びている. 医療分野に応用する研究のうち,ソーシャルメディアを対象とした研究においては, Twitter からツイートを収集してインフルエンザの流行度合を推定し, その状況を可視化する研究[1]や,感染症のみを対象とし, 病気の事実性を解析する研究[2], インフルエンザと新型コロナウイルスに同時感染した場合における特徴・症状分析に関する研究[3]など,対象を特定の病気や症状に限定する研究が中心である.本研究では, 感染症であるか否かを問わず,いつ, どこで,どのような病気・症状がツイートされているのかを収集・分析し,地域別 - 時系列別に可視化するシステムの構築[5]を目的とする. 本システムを実現するためには, 既存研究 $[1,2]$ のような感染症名を含むツイートのみを対象とした事実性解析ではなく, 病名を含まないツイートに対して病気・症状の事実性を解析する手法が必要となる。NTCIR-13 MedWeb Task[6]においては, 8 つの病名又は症状を含むツイート文にアノテーションしたデータセットが公開され,これに基づく手法がいくつか提案されているが,対象とする病気・症状は少ない. 本稿では, Twitter に投稿された各ツイートに含まれる様々な症状に対して, 二值分類により, 事実性を解析する手法について検討する。 ## 2 症状の事実性解析手法 ## 2.1 データセットの構築 ツイートに含まれる症状に対して事実性解析する手法を検討するに先立ち, 症状を含むツイートを Twitter 上から収集する必要がある. ツイートを収集 \author{ 安藤一秋 \\ 香川大学創造工学部 \\ ando.kazuaki@kagawa-u.ac.jp } するには,対象とする症状の辞書が必要となる。 本稿では,「gooヘルスケア家庭の医学 ${ }^{11)}$ を基に対象とする症状を決定した. 表 1 に,対象とする 14 種類の症状を示す.症状は,性別,年齢に関係しない一般的なものを採用した。 次に,実験に用いるデータセットを構築するためのツイート収集法について述べる. ツイートの収集条件は, ツイート内に 14 種の症状を必ず 1 語以上含むこととする。 以上の条件で収集した結果,合計 30 万件のツイ一トが得られた. その後, 収集したツイートから無作為に 20,000 件を抽出し, ツイート内に含まれる症状が病気によるものなのか否かを精査し,人手で真偽ラベルを各ツイートに付与する。 以下,ラベル付与の 4 つの条件について示す. (1) 対象者は当人及びその近辺者 ツイート内容が投稿者に対すること又は投稿者の近辺者に対する場合は「真」と判定する.ここで, 収集したツイートには症状の対象者が記述されていない場合がある。そこで,「は」,「が」 の 2 種の助詞が存在せず, 先頭が症状名から始まらない文を含むツイートに対しては, 1 人称代名詞として「私は」を自動で付与する。そして,上記以外の第 3 者である場合は「偽」と判定する. (2) 時制は現在 ツイート内容から現在継続していると判断できる場合は「真」, 過去の話題と判断できる場合は「偽」と判定する.ただし,症状が過去から現在に至るまで継続していると判断できる場合は 「真」と判定する.  (3) 仮定表現 Twitter をセンサーとして利用するため,ツイ一ト文内に「かもしれない」,「であろう」などの仮定発言がある場合も「真」と判定する. (4) 病気に関係する症状 ツイート内の症状が病気に関係するとき「真」 と判定し, 気分や表現の拡張により症状の原因が読み取れない場合は,「偽」と判定する. 以上の 4 条件の下で, 20,000 件のツイートに真偽ラベルを付与し, 6,046 件の正例, 13,954 件の負例からなるデータセットを構築した。 ## 2.2 症状の事実性解析に利用する素性 我々の先行研究[7]では, Support Vector Machine (SVM), ロジスティック回帰 (LR), 多層パーセプトロン (MLP) の 3 種類の分類器と, Bag of Words,病名の有無, 体の部位の有無, 文長, 単語分散表現の 5 つの素性を用いて, 14 症状を対象とした事実性解析の評価を実施した. その結果, 分散表現を素性とする SVM が最も分類性能が高く, 0.743 という適合率を得ることを確認した。 本稿では,以下の 4 素性を用いたモデルの有効性について検討する. (1) 単語分散表現 (W2V) 単語分散表現は, BoW 素性と異なり, 単語の出現頻度だけでなく, 前後の単語の意味や関わりを考慮することができるため,単語分散表現を baseline 素性に利用する. 分散表現は, 株式会社ホットリンクが公開している「日本語大規模 SNS+Web コーパスによる単語分散表現モデル[8]」 を用いる.このモデルは, SNS や Web 上の文書,日本語 Wikipediaを学習コーパスに利用している.素性値には, 文内の形態素に対する分散表現の平均を利用する。 (2) つつじ[9]素性 (Ttj) 日本語機能表現辞書である「つつじ」を素性抽出に利用する。「つつじ」には,「に対して」や「かもしれない」などの機能表現とその意味が登録されている. 文に含まれる機能をとらえることで,文の意味をより正確に学習できると考える.つつじ素性(Ttj)には,つつじ内の各機能表現に付与されている意味 ID を用いる. 各文において, 症状の右側最長 $\alpha$ 字中に含まれる最長の意味 IDを素性として利用する。 (3) 病名素性 (Sick) ツイート文内に病名が含まれている場合, 症状が病気に関係する可能性が高いと予測できるため, 文中に病名が含まれているか否かを素性として利用する. 病名は「株式会社メディカルノー 卜[10]」に登録されている 2,102 種の病名を利用する. (4) 物体素性 (Object) 症状を含むツイート内において, 症状の対象が人であるとは限らない. 比喻や人以外の物体が対象となるツイート文も存在するため, 文内に人以外の物体が含まれているか否かを素性値として利用する. 物体名には, 真偽ラベルを付与した 20,000 件のツイートデータから人手で抽出した 29 種を利用する. ## 3 主体性判定手法 本稿では, 症状の原因が病気であり, かつ, 対象者がツイート投稿者又は,その近辺者である場合のみ, 正例として扱う. そこで, 2.2 項で検討した 4 素性を用いて, 症状が原因であると判定されたツイー トに対して, そのツイート対象者を分類し, ツイー 卜投稿者又は,その近辺者であると判定されたツイ一トのみ可視化に利用する。 収集したツイートから, 症状の事実性解析に使用したツイート以外を無作為に 20,000 件抽出し, 症状の対象者に応じて, 以下の 3 種のラベルを各ツイー トに付与する。 (1) 当人・近辺者 (2) 遠方者 (3) 不明 ## 3.1 主体性判定に利用する素性 主体性判定では, 以下の 3 素性について検討する. (1) 1 人称代名詞素性 (Pron) ツイート内における症状の対象が投稿者当人である場合, 「私」や「僕」などの 1 人称代名詞を記載する可能性が高い. そこで,「Wikipedia[11]」 に登録された 30 種の公的表現及び私的表現に含まれる 1 人称代名詞がツイート内に含まれているか否かを素性に利用する。 (2) 都道府県素性 (Area) ツイートの対象人物が遠方者である場合, どこに住む人物なのか, また, 現在の居場所などの地名に関する情報が記述される傾向があると考える.そこで,ツイート内に都道府県名が存在する 場合,その都道府県名を素性に利用する。 (3) 移動予測素性 (Move) ツイートが, ある地点から別の地点へ移動する内容の場合, 対象人物が遠方者である可能性が高い. そこで,移動を予想させる助詞がツイート中の名詞に続く場合, その助詞を素性として利用する. 本稿で対象とする 7 種の助詞を以下に示す. 以上の 3 種の素性に, 2.2 項で提案した単語分散表現 (W2V), つつじ素性 (Ttj) の計 5 種の素性を用いて,主体性を判定する。なお,主体性判定においても,単語の分散表現を baseline 素性とする. ## 4 評価実験 評価実験では,始めに,症状の事実解析を行い,病気が原因であると判定されたツイートに対して, そのツイートの対象人物を判定する。 ## 4.1 実験方法 形態素解析には MeCab を利用する. また, 先行研究[7]と同様, 分類器には, Support Vector Machine (SVM), ロジスティック回帰 (LR), 多層パーセプトロン (MLP)を用いる. 分類器の実装には, scikit-learn を使用し, 分類器ごとに, baseline 素性である単語の分散表現に他の検討素性を組み合わせて各々の分類性能を比較する.SVM には RBF カーネルを使用し, コストパラメータは 1,000 とした. MLP は最適化関数を SGD,バッチサイズを 128 とした. ## 4.2 評価方法 症状の事実性解析では, 2.1 節で述べた 20,000 件のデータセットを用いる. 適合率, 再現率, F 1 値を評価尺度とし, 10 分割交差検証の平均値で分類性能を評価する. 人手でラベルを付与した結果と分類結果を比較し, 完全一致した場合を正解と判断する. なお, 症状の罹患状況を可視化する際, 病気が原因であると判定されたツイートのみ用いることを想定しているため, 本実験では, 適合率を最重視する.主体性判定では, 症状の事実性解析の結果, 病気が原因であると判定されたツイートに対して, 新たに 3 種の主体性ラベルを付与しテストデータとする。事実性解析に使用したツイート以外の 20,000 件に対し, 3 種のラベルを付与すると共に, 2.1 項の方法で「私は」をツイートに自動付与したものを学習データに用いる。適合率, 再現率, F1 值を評価尺度とし, 「当人・近辺者」に分類された性能で評価する.本研究では, ツイートの対象者が当人又は近辺者である場合を正例として扱い,「遠方者」,「不明」に分類されたツイートは負例とする. 人手でラベルを付与した結果と分類結果を比較し, 完全一致した場合を正解と判断する. 罹患状況の可視化には「当人 .近辺者」へ分類されたツイートのみ用いることを想定しているため,適合率を最重視する。 ## 4.3 実験結果 まず,症状の事実性解析において, 3 種の分類器に beseline 素性及び 3 種の検討素性を組み合わせた結果を表 3 に示す. 表 3 より, 最も適合率が高い組み合わせは, MLP に全ての検討素性を加えた場合で 0.788 を得た. 我々の先行研究[7]で提案した手法より, 性能が 4.5 ポイント向上した. 対して最も適合率が低くなった組み合わせは LR に baseline 素性である単語の分散表現のみを用いた場合で 0.732 となった. $\mathrm{Ttj}$ 素性のみに着目すると, 全ての分類器において baseline 素性のみの場合と比較して, 分類性能が向上した.これは, ツイートの文末における意味的まとまりの表現を考慮することができたためであると考えられる.また, Object 素性のみを追加した場合も, 全ての分類器において baseline 素性のみの場合と比較して, 分類性能が向上した. ツイート文内に含まれる症状の対象は, 人以外の「スマホ」や「パソコン」などの物体となる場合がある。 そこで,ツイート内の物体に関する素性を追加することで, 対象物の分類に貢献したと考えられる. 最後に, Sick 素性を追加した場合,分類性能に大きな変化はなかった. これはツイート内に含まれる病名の件数が全体の $22 \%$ と低いことが原因であると予想できる. 次に, 主体性判定において, 3 種の分類器に対して, beseline 素性及び 3 種類の検討素性を組み合わせた結果を表 4 に示す. 主体性判定では「当人又は近辺者」に分類されたツイートを最終結果とするため, 「当人又は近辺者」に分類された結果のみを示す. また, 表 4 の結果は, 表 3 の症状の事実性解析の結果において,最も分類性能が高い MLP に全ての検討素性を加えたモデルが正例と判定した結果に 対し,主体性判定した結果である. 表 3 症状の事実性解析の結果 表 4 主体性判定の結果 表 4 より, 最も適合率が高い組み合わせは, MLP に全ての検討素性を追加した場合で 0.788 を得た。 これに対して, LRに baseline 素性である単語の分散表現と Move 素性を追加した場合に最も適合率が低く, 0.660 となった. Pron 素性及び, Area 素性を追加することで全ての分類器において, 分類性能が 0.01 ポイント以上向上した. 1 人称対代名詞に関する素性は,対象者を「当人」または「遠方者」に分類する際, 重要であることを確認した。 さらに, Area 素性を追加することで分類性能が向上したが,「当人又は近辺者」のラベルが付与されたツイートにおいて都道府県名が含まれる割合は全体の $1.1 \%$, 「遠方者」では $6 \%$ であった。 このことから,都道府県名の有無が「当人又は近辺者」への分類に貢献したと考えられる. ## 4.4 エラー分析 症状の事実性解析では, 短文ツイートに誤分類が多く見受けられた。症状が過去から現在に至るまで継続していると判断できるツイートは正例として扱うが,「僕,ずっーと頭痛い」のような短文ツイートの場合, 症状の原因が病気によるものか否かの分類が困難である.短文ツイートについては,前後ツイ一トを利用することで改善できる可能性はある。また, 症状の種類で分類が困難なツイートも確認できた. 特に,「頭痛」「めまい」の 2 症状は,様々な状況において言葉の比喻で用いられることが多く, 分類が困難なものが存在することを確認した。 主体性の判定では, 1 ツイート内に複数の人物が登場する場合, 症状が発生している人物が誰であるかを判定することができず,誤分類している傾向を確認した. また, 本稿では, 30 種の一般的な 1 人称代名詞を辞書として利用したが,ツイート内には辞書に未登録の 1 人称代名詞も存在するため, 特殊な代名詞が出現する場合において誤分類することを確認した. ゼロ代名詞のツイートも多いことから,照応解析の導入が必要である. ## 5 おわりに 本稿では, 症状の事実性解析手法及び, ツイート文内の症状の主体性を判定する手法について検討した. 3 種類の分類器に検討素性を組み合わせた実験により分類性能を評価した結果, 症状の事実性解析では 0.788 , 主体性の判定では 0.703 という適合率を得た. 今後は, さらに分類性能を向上させるための素性検討及び,症状以外の病名に対する事実性解析器の構築, 病気・症状の動向をリアルタイムで可視化できるシステムの構築を目指す. ## 参考文献 [1] 北川善彬, 小町守, 荒牧英治, 岡崎直観, 石川博, インフルエンザ流行検出のための事実性解析。言語処理学会第 21 回年次大会(NLP2015)発表論文集,pp.218-221,2015. [2] 松田紘伸,吉田稔,松本和幸,北研二.Twitter を用いた病気の事実性解析及び知識べース構築. 人工知能学会第 30 回全国大会(JSAI2016)論文集, pp.2C5-OS-21b-4, 2016 [3] Simin Ma, Xiaoquan Lai, Zhe Chen, Shenghao Tu, Kai Qin. Clinical characteristics of critically ill patients coinfected with SARS-CoV and the influenza virus in Wuhan, China. International Journal of Infectious Diseases, Vol.96, pp.683-687, 2020. [4] AI Japan R\&D Network. (オンライン)(引用日:2021 年 1 月 13 日) https://www.ai-japan.go.jp/. [5] 難波洋平,安藤一秋. 罹患者情報の可視化へ向けた Twitter $の$ 調查・分析. 電気・電子・情報関係学会四国支部連合大会講演論文集 2017,p.226,2017. [6] Shoko Wakamiya, Mizuki Morita, Yoshinobu Kano, Tomiki Ohkuma, and Eiji Aramaki. Overview of the NTCIR-13: MedWeb Task. In Proc. of the 13th NTCIR Conference, pp.40-49, 2017. [7] 安藤翼, 安藤一秋. ツイートされる病気症状の可視化に向けた病気症状の事実性判定手法の検討. FIT2019(情報科学技術フォーラム 2019)講演論文集,第 2 分冊,pp.139-140,2019. [8] 松野省吾,水木栄,郸剛史。日本語大規模 SNS+Web コーパスによる単語分散表現のモデル構築. 人工知能学会第 33 回全国大会(JSAI2019)論文集,pp.1-3,2019. [9] 松吉俊, 佐藤理史, 宇津呂武仁. 日本語機能表現書の編纂. 自然言語処理,Vol.14,No.5,pp.123- 146, 2007 [10] 株式会社メディカルノート病名一覧. (オンライン)(引用日: 2021 年 1 月 13 日) https://medicalnote.jp/diseases/list. [11] 日本語の一人称代名詞. (オンライン)(引用日: 2021 年 1 月 13 日) https://ja.wikipedia.org/wiki/日本語の一人称代名詞.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-17.pdf
# フェイクニュース検出データセットにおける通時的バイアス 村山 太一若宮翔子荒牧英治 奈良先端科学技術大学院大学 \{murayama.taichi.mk1, wakamiya, aramaki\}@is.naist.jp ## 1 はじめに 近年,意図的に広められた誤った記事である 「フェイクニュース」が深刻な社会問題の一つとなっている. 例えば,2016 年の米国大統領選挙では,Twitter に投稿されたニュースの $25 \%$ がフェイクもしくは極端に偏っており,トランプ氏の支持者の活動がフェイクニュースの拡散に影響を与えていた [1]. 選挙だけでなく, 2011 年の東日本大震災などの自然災害 [2,3] や,COVID-19 [4] に関連したフェイクニュースが世界各国でソーシャルメディアなどを通じて共有された。これらの問題に対処するため,ソーシャルメディア投稿やニュースコンテンツからのフェイクニュース検出モデルの開発や,検出モデル開発のためのデータセット構築が活発に行われている $[5,6]$. 多くのフェイクニュース検出データセットは,現実のフェイクニュースから構成される. 現実のフェイクニュースは人々の関心に強く影響される [7] ことから,時期によって流行するトピックが異なる.具体的には,2013 年にはオバマ大統領 [8],2016 年には米国大統領選挙 [1], 2020 年には COVID-19 [9] など,異なるトピックのフェイクニュースが頻繁に拡散された。 そのため, 特定時期のイベントや単一のドメインを対象とした,データセットが構築されることが多い. これらのデータセットから学習されるフェイクニュース検出モデルは, 学習データセットと同様のニュースに対しては高い検出精度を達成する。その一方で,異なるドメインや将来のフェイクニュースに対してはテキストの語彙情報が大きく異なることから十分に対応できない場合が多い. つまり,時期に偏りがあるデータセットで学習された検出モデルに,特定の人名や組織名を含む文章が入力されると,その文章の真偽に関わらず判定に誤りが生じる可能性がある.これは,同一のドメインデータでも生じる問題であり,頑健なモデル構築の妨げとなる.本研究では,この問題をデータセットの作成時期に依存することから「通時的バイアス」と定義する. 本稿では,通時的バイアスがデータセット内の人名などの固有名詞によるものと考え,これらをマスキングすることでバイアスの緩和手法を検討する. はじめに,作成時期の異なるフェイクニュース検出データセットを対象に,ラベルとフレーズ間の相関について分析し,データセット内の人名などの語の偏りを明らかにした。 次に,テキストからのフェイクニュース検出タスクを対象に,通時的バイアスの原因と考えられる人名に着目した緩和手法の検討を行った。 ## 2 関連研究 学習データセットにおけるバイアスに関する研究は,攻撃的な言語やへイトスピーチの検知などを主な目的としており,著者バイアス [10],アノテータバイアス [11], ジェンダーバイアス [12,13], 人種バイアス [14, 15], 政治的バイアス [16] などの様々なバイアスの分析や緩和手法の検討がなされている. Dayanik らの研究 [17] では,データセット内の人名の頻度バイアスに着目している. 人名に着目した点は我々と同様であるが,本稿では時間の経過のバイアスについて考慮している点で大きく異なる. å フェイクニュース検出に近い分野として,含意認識の一種である与えられた証拠から主張の真偽を判定する Fact Verification タスクではバイアスの分析・軽減が取り組まれてる. Schuster ら [18] は頑健な推論モデル構築のためにテキストの語彙の偏りを緩和する手法を提案した. Suntwal ら [19] はテキスト中の語彙を NER タグに置き換えることで,ドメイン外のデータでも頑健な推論モデルの構築を目指した. しかしながら,フェイクニュース検出データセットに対してのバイアス調査や分析は我々の知る限り行われていない。 ## 3 ## リソース ## 3.1 データセット 本稿では,フェイクニュース検出に関するドメインや収集時期が異なる以下の4つの英語データセッ卜を用いて通時的バイアスの分析・検証を行う.これらのデータセットでは,記事や投稿などのテキストデータの内容に対して,フェイクニュースかどうかを示す 2 值ラベル(Fake / Real)が付与されている. 各データセットの詳細を以下に, ラベル数などの情報を付録A.1節に示す。 MultiFC [20] : 複数ドメインのフェイクニュースデータセットであり, 38 の事実検証サイトの記事から構成される. 全データ 36534 件のうち, 本稿では 2015 年以前の truth!, true, mostly true(Real ラべルとする)と false, mostly false(Fake ラベルとする) が付与された 7861 件のデータを用いる. Horne17 [21]:2016 年の米国大統領選挙に関連したニュース記事を中心に構成される. Buzzfeed News などのサイトに基づいて, Real, Fake, Satireの 3 值ラベルが付与されており,本稿では Real, Fakeのラベルが付与されたデータを用いる. Celebrity [22]:有名人を対象としたニュースの事実検証サイトである GossipCop によって検証された記事によって構成される. データセットの記事は 2016,2017 年頃に報道されたものが多く, 有名人同士の喧嘩などセンセーショナルな話題が中心である。 Constraint [23] : Constraint@AAAI2021 Shared Task のサブタスクで用いられたデータセットであり, Twitter などのソーシャルメディアの投稿で構成される. Politifact や Snopes などの事実検証サイトによってラベルが付与されており,2020 年に Twitter で拡散された COVID-19に関連した投稿が中心である. ## 3.2 フレーズとラベルの相関 データセットの偏りを検証するために,データセットのフレーズとラベルの相関について調査する. 高い出現頻度かつ各ラベルとの相関が高いフレーズ (n-gram) を抽出するために, Local Mutual Information (LMI) [24]を用いる. $ L M I(w, l)=p(w, l) \cdot \log \left(\frac{p(l \mid w)}{p(l)}\right) $ $w$ はフレーズ, $l$ はラベルとする. 条件付き確率 $p(l \mid w)$ は $\frac{\operatorname{count}(w, l)}{\operatorname{count}(w)}, p(l)$ は $\frac{\operatorname{count}(l)}{|D|}$ と算出される. $w$ と $l$ の同時確率である $p(w, l)$ は $\frac{\operatorname{count}(w, l)}{|D|}$ として算出される. $|D|$ はデータセット内の全てのフレーズの出現回数を示す. MultiFC と Horne17 の bi-gram を対象とした,各ラベルとの相関が高い上位 10 フレーズの LMI を表 1に,Celebrity と Constraint の結果は付録 A.2節に示す. 2015 年以前の記事で構成された MultiFC では “barack obama”といった当時の米国大統領が Fake ラベルとの相関が高くなり,2016年大統領選挙の記事で構成された Horne17 では当時の大統領候補であった “hillary clinton” や“donald trump” が Fake ラベルと高い相関を持つという結果となった. このように, データセットごとに特定の人名とラベルの関係に大きな偏りの存在が明らかになった. どちらか一方のデータセットで学習された検出モデルでは大統領交代などの時代変化に対応できず,もう一方のデータセットでのフェイクニュース検出が上手くいかないことが示唆される. ## 4 通時的バイアスの緩和の検討 ## 4.1 検討手法 通時的バイアスを緩和し,ドメイン外のデータに対しても頑健なフェイクニュース検出モデルを構築するために,データセットに対する複数のマスキング手法を検討する.本稿で検討するマスキング手法の例を表 2に示す. Lexicalized はマスキングされていない通常の入力とする. Named Entity (NE) Deletion : Flair [25]の Named Entity Recognition (NER) [26] によって NE とタグ付けされた語彙を削除する.NEに依存しない検出モデルの構築を目的とするマスキング手法の一つである。 Basic NER : Flair の NER により NE としてタグ付けされた語彙が対応するラベル (PER, LOC など) に置き換える。 WikiD : Flair の NER により PER とタグ付けされた語彙を,Wikidata ${ }^{1)}$ で対応する人物の公的な地位 (P39),対応がなければ職業 (P106) に置き換える.当時の Wikidataを用いることで,2015 年の記事に登場する “barack obama”と 2020 年の記事に登場する “donald trump”を米国大統領 (Q11696) というラベルに置き換えることができる。.これによって,テキストを入力としたフェイクニュース検出モデルが時間経過にも頑健になり,通時的バイアスの緩和が期待  表 1 データセットの bi-gram を対象に,各ラベルにおいて LMI が高い上位 10 フレーズと算出された LMI と $p(l \mid w)$ を示す. LMI は $10^{6}$ を掛けた值を示す. 人名を示すフレーズを太字で記す. Real ラベルは “if you”などの一般的なフレーズとの相関が高い一方で,Fake ラベルでは“donald trump”などの人名と高い相関を示す傾向が見られた. & 217 & 0.70 & barack obama & 365 & 0.69 & national security & 106 & 0.88 & hillary clinton & 440 & 0.50 \\ 表 2 マスキング手法の適用例.ラベル PERに当たる部分を赤字,そのほかの NE を太字で示す. ## できる. WikiD+Del : Flairの NERにより PERとタグ付けされた語彙を WikiD のルールで置き換え,その他の NEとタグ付けされた語彙を削除する。 WikiD+NER : Flair の NER により PER とタグ付けされた語彙を WikiD のルールで置き換え,その他の NE を対応するラベル (LOC など) に置き換える. ## 4.2 実験設定 マスキング手法の有効性について検証するために,フェイクニュース検出タスクを取り組む. 3 節で取り上げた各データセットの学習データを用いて,各マスキング手法を適用したフェイクニュース検出モデルを作成する. そして, 同じドメインや異なるドメインのデータセットに対して,各検出モデルによりどの程度フェイクニュースの検出が可能かを確認する。 モデル本実験では,Google から公開されている事前学習 BERT $_{\text {BASE }}$ モデル [27] を用いる. マスキング手法によって追加されたラベル(LOC や Q11696 など)は新たなトークンとして追加し, fine-tuning する、マスキングで用いる Wikidata の詳細は付録A.3節に示す. データと評価学習のために,各データセットを全体の $80 \%$ を学習データに, $20 \%$ をテストデータに分割する.検出精度の評価には正解率 (Accuracy) を用いる。 ## 4.3 実験結果 各データセットで学習したフェイクニュース検出モデルを,学習したデータセットのテストデータ (ドメイン内)とそれ以外のデータセットのテストデータ(ドメイン外)で評価し,マスキング手法の有用性について検討する。 ## 4.3.1 ドメイン内データ ドメイン内データに対する各マスキング手法での正解率を表 3に示す. Constraint 以外のデータセットにおいて,マスキング手法を行わない Lexicalized が最も高い精度となった。一方で,Constraint デー タセットにおいて WikiD が最も高い精度を達成した. また,Lexicalized が最も高い精度となったデー タセットにおいても他のマスキング手法による精度と比較して数ポイントの差しか存在しないという結果が得られた.このことから,同一ドメインのデー タに対して,各マスキング手法を適用したモデルでフェイクニュース検出を行っても,大きく精度が悪化しないことが示唆される. ## 4.3.2 ドメイン外データ ドメイン外データをテストデータとした正解率を表 4に示す. 左の列に学習に用いたデータセットを,精度を記載した列はテストに用いた各データセットに対応している。ほとんどのドメイン外のデータに対して,マスキングを行わない Lexicalized 表 3 各マスキング手法におけるドメイン内でのファイクニュース検出精度. よりも各マスキング手法が高い精度を達成した. Lexicalized の精度はドメイン外への適応可能性を示している. 例えば, Constraintで学習したモデルは Constraint で 0.96 と高い正解率を達成した(表 3)が, ドメイン外データで学習したモデルでは Constraint のテストデータに適用したところ,約 $0.48-0.58$ と低い正解率となった。このことは,フェイクニュー ス検出モデルの一般化の難しさを示している. 検討手法の一つである NE Deletion は単純なマスキング手法にも関わらず,12 の実験設定のうち9つで Lexicalized よりも高い精度を達成した。一部のデータセットで大幅に精度が向上しており,中でも Horne17 で学習したモデルでは MultiFC と Celebrity の 2 つのテストデータセットで最も高い精度を達成している. Basic NER は Horne17 で学習したモデルで Constraint のテストデータに対して最も高い精度を達成したが,NE Deletion ほどの大きな効果は見られなかった。 Wikidataを活用したマスキング手法である WikiD と WikiD+Del は,Lexicalized と比較して Celebrity をテストデータとした時以外の 10 の実験設定で高い精度を達成した. 例えば,MultiFC で学習したモデルで Constraint のテストデータで評価したところ,Lexicalized では 0.530 だったものの,WikiDでは 0.689 と大幅な精度向上を達成した. この結果は,Wikidataを活用したマスキング手法が通時的バイアスを緩和し,ドメイン外のデータセットにおいても頑健なモデルを構築できる可能性を明らかにした. 一方で,芸能系のドメインである Celebrity をテストデータとしたとき,Lexicalized と変わらない検出精度であった。これは,学習データが政治系を中心としたものでドメインが大きく異なることから, Wikidata を活用できず大きな効果が見られなかったと考えられる(付録の表7を参照されたい)。また, Wikidata を活用したマスキング手法の WikiD+NER は WikiD+Del と比べ低い精度となっている。つま表 4 各マスキング手法におけるドメイン外でのファイクニュース検出精度. } & \multirow{2}{*}{ 手法 } & \multicolumn{4}{|c|}{ テストデータ } \\ り,人名以外の Entity,例えば“London”などの地名を“LOC” というタグに置き換えるよりも,削除することで頑健なモデルを構築できることを示す.これは余分な Entity 情報を削除することで,モデルが文体の特徵に着目できることが要因と考えられる。 ## 5 おわりに 本稿は,フェイクニュース検出データセットの作成時期やドメインによって生じる新たなバイアス「通時的バイアス」を定義した。そして,データセット内の人名に大きな偏りがあるのに着目し,人名を Wikidata の情報に置き換えるマスキング手法を提案し,ドメイン外のデータセットに対するフェイクニュース検出タスクに取り組むことによりマスキング手法の有効性について確認した。 今回はマスキングという簡易な手法を検討したが,今後の方向性として,通時的バイアスを緩和するために知識グラフを活用した検出モデルの構築などが考えられる。また,フェイクニュース検出デー タセットには通時的バイアス以外にも政治的バイアスや人種バイアスが存在すると考えられるため,これらのバイアスを明らかにしていくことも重要な課題の 1 つである. ## 参考文献 [1]Alexandre Bovet and Hernán A Makse. Influence of fake news in twitter during the 2016 us presidential election. $\mathrm{Na}$ ture communications, Vol. 10, No. 1, pp. 1-14, 2019. [2]Misako Takayasu, Kazuya Sato, Yukie Sano, Kenta Yamada, Wataru Miura, and Hideki Takayasu. Rumor diffusion and convergence during the 3.11 earthquake: a twitter case study. PLoS one, Vol. 10, No. 4, p. e0121443, 2015. [3]Takako Hashimoto, David Lawrence Shepard, Tetsuji Kuboyama, Kilho Shin, Ryota Kobayashi, and Takeaki Uno. Analyzing temporal patterns of topic diversity using graph clustering. The Journal of Supercomputing, pp. 1-14, 2020. [4]Gautam Kishore Shahi and Durgesh Nandini. FakeCovid - a multilingual cross-domain fact check news dataset for covid19. In Workshop Proc. of ICWSM, 2020. [5]Kai Shu, Suhang Wang, Dongwon Lee, and Huan Liu. Mining disinformation and fake news: Concepts, methods, and recent advancements. arXiv:2001.00623, 2020. [6]Savvas Zannettou, Michael Sirivianos, Jeremy Blackburn, and Nicolas Kourtellis. The web of false information: $\mathrm{Ru}-$ mors, fake news, hoaxes, clickbait, and various other shenanigans. Journal of Data and Information Quality, Vol. 11, No. 3, pp. 1-37, 2019. [7]Ana Lucía Schmidt, Fabiana Zollo, Michela Del Vicario, Alessandro Bessi, Antonio Scala, Guido Caldarelli, H Eugene Stanley, and Walter Quattrociocchi. Anatomy of news consumption on facebook. Proceedings of the National Academy of Sciences, Vol. 114, No. 12, pp. 3035-3039, 2017. [8]CNBC News. False rumor of explosion at white house causes stocks to briefly plunge; ap confirms its twitter feed was hacked. https://www.cnbc.com/id/100646197, 2013. [9]Gautam Kishore Shahi, Anne Dirkson, and Tim A Majchrzak. An exploratory study of covid-19 misinformation on twitter. arXiv preprint arXiv:2005.05710, 2020. [10]Michael Wiegand, Josef Ruppenhofer, and Thomas Kleinbauer. Detection of Abusive Language: the Problem of Biased Datasets. In Proc. of NAACL, pp. 602-608, 2019. [11]Björn Ross, Michael Rist, Guillermo Carbonell, Benjamin Cabrera, Nils Kurowsky, and Michael Wojatzki. Measuring the reliability of hate speech annotations: The case of the european refugee crisis. arXiv:1701.08118, 2017. [12]Reuben Binns, Michael Veale, Max Van Kleek, and Nigel Shadbolt. Like trainer, like bot? inheritance of bias in algorithmic content moderation. In International conference on social informatics, pp. 405-415. Springer, 2017. [13]Ji Ho Park, Jamin Shin, and Pascale Fung. Reducing gender bias in abusive language detection. In Proc. of EMNLP, pp. 2799-2804, 2018. [14]Maarten Sap, Dallas Card, Saadia Gabriel, Yejin Choi, and Noah A Smith. The risk of racial bias in hate speech detection. In Proc. of ACL, pp. 1668-1678, 2019. [15]Thomas Davidson, Debasmita Bhattacharya, and Ingmar Weber. Racial bias in hate speech and abusive language detection datasets. In Proc. of the Third Workshop on Abusive Language Online, pp. 25-35, 2019. [16]Maximilian Wich, Jan Bauer, and Georg Groh. Impact of politically biased data on hate speech classification. In Proc. of the Fourth Workshop on Online Abuse and Harms, pp. 54-64, 2020 [17]Erenay Dayanik and Sebastian Padó. Masking actor information leads to fairer political claims detection. In Proc. of $A C L$, July 2020. [18]Tal Schuster, Darsh Shah, Yun Jie Serene Yeo, Daniel Roberto Filizzola Ortiz, Enrico Santus, and Regina Barzilay. Towards debiasing fact verification models. In Proc. of EMNLP-IJCNLP, pp. 3410-3416, 2019. [19]Sandeep Suntwal, Mithun Paul, Rebecca Sharp, and Mihai Surdeanu. On the importance of delexicalization for fact verification. In Proc. of EMNLP-IJCNLP, pp. 3404-3409, 2019. [20]Isabelle Augenstein, Christina Lioma, Dongsheng Wang, Lucas Chaves Lima, Casper Hansen, Christian Hansen, and Jakob Grue Simonsen. Multifc: A real-world multi-domain dataset for evidence-based fact checking of claims. In Proc. of EMNLP-IJCNLP, pp. 4677-4691, 2019. [21]Benjamin Horne and Sibel Adali. This just in: Fake news packs a lot in title, uses simpler, repetitive content in text body, more similar to satire than real news. In Proc. of ICWSM, Vol. 11, 2017. [22]Verónica Pérez-Rosas, Bennett Kleinberg, Alexandra Lefevre, and Rada Mihalcea. Automatic detection of fake news. In Proc. of COLING, pp. 3391-3401, 2018. [23]Parth Patwa, Shivam Sharma, Srinivas PYKL, Vineeth Guptha, Gitanjali Kumari, Md Shad Akhtar, Asif Ekbal, Amitava Das, and Tanmoy Chakraborty. Fighting an infodemic: Covid-19 fake news dataset. arXiv:2011.03327, 2020. [24]Stefan Evert. The statistics of word cooccurrences: word pairs and collocations. 2005. [25]Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proc. of COLING, pp. 1638-1649, 2018. [26]Alan Akbik, Tanja Bergmann, and Roland Vollgraf. Pooled contextualized embeddings for named entity recognition. In Proc. of NAACL, pp. 724-728, 2019. [27]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL, pp. 4171-4186, 2019 ## A 付録 ## A. 1 データセットの概要 本稿で扱うデータセットのドメインや各ラベルのデータ数について表 5に示す. 表 54 つのデータセットの概要. ## A. 2 データセットの LMI Celebrity と Constraint の 2 つのデータセットにおいて各ラベルと相関の高い上位 10 フレーズの LMI を表 6に示す. 芸能系のニュースで構成された Celebrity では “brad pitt” や “kate middleton” などの著名人が,COVID-19 関係の Constraint では “donald trump” “bill gates”などの人名が Fake ラベルと高い相関を持つという結果となった。一方で,Real ラベルでは人名や固有名詞が少なく, “i had” や “if you"などの一般的な表現と高い相関を持つという傾向が示された. Fake ラベルと人名が高い相関を持ち, Real ラベルと一般的な表現が高い相関を持つという傾向は 4 つのデータセット全体に見られる傾向である. ## A. 3 マスキング手法における Wikidata 本実験では,テキストのマスキングのためにデー タセットを構成する記事や投稿の時期に対応した Wikidataを用いる。具体的には,MultiFC には 2016 年 1 月 4 日, Horne17と Celebrity には 2018 年 1 月 11 日,Constraint に対しては 2020 年 12 月 28 日に公開された Wikidataを用いる. ## A. 4 各データセットにおける Wikidata ラ ベル 各データセット同士の WikiD による Wikidata ラベルの重複を表 7に示す. これは,左列に示したデータセットの Wikidata ラベルのうち,他のデー タセットにある Wikidata ラベルによってどの程度カバーされているかを示したものである. MultiFC と Horne17 データセットは同様の政治トピックであることからお互い高いカバー率である。一方で,表 6 Celebrity と Constraint データセットの bi-gramを対象に,各ラベルにおいて LMI が高い上位 10 フレーズ. & 822 & 0.93 & donald trump & 569 & 0.98 \\ Celebrity データセットは芸能というドメインであることから,他のデータセットと比べ低いカバー率である.各データセットにおいて出現回数が上位 3 つの Wikidata ラベルを表 8に示す. 表 7 各データセット同士の Wikidata ラベルのカバー率. 表 8 各データセットにおける,出現回数上位 3 の Wikidata ラベル. & & actor & \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-18.pdf
# ニューラル文法誤り訂正のための 多様な規則を用いる人工誤り生成 古山翔太 ${ }^{1,2}$ 高村大也 ${ }^{1,2}$ 岡崎直観 1,2 1 東京工業大学 2 産業技術総合研究所 shota.koyama[at]nlp.c.titech.ac.jp, takamura.hiroya[at]aist.go.jp, okazaki[at]c.titech.ac.jp ## 1 はじめに 文法誤り訂正は,与えられた文書から綴りの間違いや,単語の誤用などの文法的な誤りを見つけ,正しい表現へと修正する技術である。言語学習者支援や文書校正への応用が期待されており,自然言語処理の重要な課題のひとつである. 文法誤り訂正では,誤り注釈付きの学習者コーパスを教師データとして,ニューラルネットワークのモデルを学習する手法が主流である [1]. さらに,人工誤り生成による人工誤りデータを用いてニュー ラルネットワークのモデルを事前学習したのちに,学習者コーパスを用いて再学習(ファインチューニング)を行うアプローチの有効性が報告されている [2]. そのため, 事前学習に用いる学習データを生成するための人工誤り生成手法の改善は, ニュー ラル文法誤り訂正における重要な研究課題である. 人工誤り生成は,文法誤り訂正固有のデータ拡張手法であり,単語を置き換える規則や文法誤りを生成する手法を用い,文法的な文に誤りを導入することで,人工誤りデータを構築する。 ニューラル文法誤り訂正のための人工誤り生成には,機械翻訳による誤り生成と, 誤り生成規則による誤り生成がある. 機械翻訳による誤り生成は, 系列変換モデルを用いて誤りデータを作成する手法であり,逆翻訳を用いる手法 $[3,4,5]$ や,折り返し翻訳を用いる手法 $[2,6]$, 初級 ・上級翻訳器を用いる手法 [7] が提案されている。一方,規則による誤り生成では,各規則は特定の種類の誤りのみしか生成できず,文法力テゴリごとに異なる規則を準備する必要がある.このため, 英語文法誤り訂正においては, 誤りの種類ごとに様々な誤り生成規則が提案されている. 英語を対象とした人工誤り生成において,誤り生成規則は,機能語誤り,語形変化誤り,表記体系の誤り,単語選択の誤り,語順誤りの生成に関するものに大別できる. 機能語誤りは, 例えば“I went for Tokyo.” の for(訂正は to)のような,前置詞や代名詞などの機能語の用法に関する誤りである。機能語誤りの生成手法として,冠詞を置き換える手法 [8] や,学習者の誤り傾向を反映し, 冠詞や前置詞の誤りを生成する手法 $[9,10]$ などが提案されている. 語形変化誤りは,例えば “I goed to Tokyo.” の goed (訂正は went)のような,内容語の語形変化における誤りである。語形変化誤りの生成手法として,不可算名詞の数に関する誤りを生成する手法 [11] や,品詞解析の結果に基づき名詞数や動詞変化の誤りを生成する手法 [12] などが提案されている. 表記体系の誤りは,例えば“I want to Tokyo.”の want(訂正はwent)のような綴りの誤りや,句読法,複合語,分かち書き,縮約,大小文字の規則に関する誤りである。表記体系の誤り生成手法として,文中のコンマを削除する手法 [13] や,経り誤り訂正器を逆適用する手法 [14]が提案されている. 単語選択の誤りは,例えば“I lost my flight.” の lost (訂正は missed)のような類義語の誤用や,接辞が異なる語を用いる誤りである.単語選択の誤り生成手法として, 品詞解析の結果に基づき接辞に関する誤りを生成する手法が提案されている [15]. 語順誤りは,例えば“I my flight missed.” の my flight の位置(missed の後ろが正しい)のように,文中の語や句の位置に関する誤りである。語順誤りの生成手法として,隣り合う単語を入れ替える手法が提案されている $[16,14]$. 以上のように,人工誤り生成のための規則による誤り生成手法は数多く存在している。しかし,いずれの手法も,特定の種類か,あるいは少数の誤り生成規則を適用して人工誤り生成を行っている。この ため,これらの手法で生成されるデータは,多様な種類の誤りを含む実際の文書と比較して, 非常に限られた種類の誤りのみを含む.このような手法で生成される誤りデータを用いて訂正モデルを学習する場合,人工誤り生成が対応していない種類の誤りに対しては,誤り訂正の性能向上が期待できない. 本研究では,英文中の様々な文法誤りに対して誤り生成規則を設計し,それらを組み合わせて多様な誤り文を生成できる人工誤り生成の枠組みを提案する. 提案手法では, 複数の誤り生成規則を文ごとに異なる確率で適用することで,多様な誤り文を生成する. 生成された誤りデータで文法誤り訂正モデルを事前学習し, さらに学習者コーパスで再学習する実験を行う。提案手法の誤り生成規則や適用確率はすべて人手で調整しているが,この方法で生成した誤りデータを用いて事前学習を行ったモデルは,事前学習を行わないべースラインよりも高い訂正性能を示した. 特に,CoNLL-14 タスクのテストデータでは, 最高性能を達成した. さらに, 特定の誤り種類に関する誤り生成規則を人工誤り生成から取り除くことによる影響を評価し,多様な誤り生成規則を用いる人工誤り生成の有効性を検証する。 ## 2 手法 提案手法では,単言語コーパスの各文に対して複数の誤り生成規則を順番に,かつ独立に適用する。単言語コーパスの各文には,SpaCy v2.3 ${ }^{1)}$ を用いてトークナイズを施し, 品詞タグ,係り受け解析タグ,見出し語,固有表現のIOB タグと種類を,単語ごとに付与しておく. 誤り生成規則は単語ごとに適用され,ある誤り生成規則が,ある語に対して誤り生成可能であるかは, その語やその周辺の語に付与された情報から判定される. 各誤り生成規則は, 固有のベータ分布を保持しており, 文ごとにしきい值をサンプルする.誤り生成規則は,誤りを生成可能な単語ごとに,一様分布から值をサンプルし,その值がしきい値を超えた場合に誤りを生成する。この仕組みのため, 文ごとに異なる割合で誤りが生成され,多様な誤り文を得ることができる。 入力文に対してすべての誤り生成規則を適用した文を誤り文,入力文を修正文とし,誤りデータを生成する. 誤り生成規則は,計 188 種類を作成した。このうち, 154 種類が機能語誤りに, 5 種類が語形変化誤りに, 19 種類が表記体系誤りに, 6 種類が語順誤  表 2 単言語コーパス 表 3 評価コーパス りに, 2 種類が単語選択誤りに関する誤り生成規則である. その他, 記号や頻度の高い機能語の削除を行う誤り生成規則と,マスクトークン予測のための規則がある.誤り生成規則の多くは,条件に合う単語を削除したり,置き換えたりするものである.例えば,前置詞 than に関する誤り生成規則は, 前置詞の than に対して確率 0.2 で削除操作を行い,またそれぞれ確率 $0.4,0.2,0.1,0.1$ で than を to, from, over, beyond に置き換える。単語を挿入する誤り生成規則もあり,例えば,冠詞を挿入する誤り生成規則では,文頭,あるいはある単語間の位置において, 左の単語が存在しないか, あるいは左の単語の Penn Treebank 品詞タグが,VB, VBD, VBG, VBN, VBP, VBZ, IN のいずれかであり,かつ右の単語の Penn Treebank 品詞タグが, NN, NNS, JJ, JJN, JJS のいずれかである場合に,a, an, the, this, that, these, those を,それぞれ $0.3,0.3,0.3,0.025,0.025,0.025,0.025$ の確率でサンプルし,挿入する。人工誤り生成に用いるソースコードは,GitHub 上で公開した2),その他の誤り生成規則の詳細はそちらを参照してほしい。 ## 3 実験 再学習に用いる学習者コーパスの種類と規模を表 1 に示す。学習者コーパスの入手は,BEA-19 Shared Task ${ }^{3}$ の規定に従う. Lang-8 コーパスは,誤り文と修正文が同一な事例を除いた文のみを学習に用い, Lang-8 コーパス以外のコーパスは, 学習時に標本数を 3 倍にする.評価に用いるコーパスの種類と規模,評価尺度を表 3 に示す. 事前学習に用いる単言語コーパスの種類と規模を表 2 に示す. 表 2 中の  表 4 誤り訂正実験の結果と既存手法との比較 & & & \\ コーパスは,WMT19のニュースタスクのもの4)を用いる。誤り生成は, 各エポックごとに行う. すべてのデータは,記号の正規化などの前処理が施されたのち,BPE-dropout [24]が施される. dropout 確率は,誤り文で 0.1 ,修正文で 0 とする. ニューラル文法誤り訂正には,Transformer Big [25] モデルを用いる. 実装は fairseq v0.10.1 5) を用いる. 生成は, 幅 12 のビーム探索で行い, スコアは長さ正規化をする. 実験結果は, 5 モデルの平均值と,アンサンブル,RoBERTa Large を用いるリスコア [26] によるものを報告する. ## 4 結果 実験結果を表 4 に示す. ベースラインでは, 学習者コーパスを用いて 50 エポック訓練する. 事前学習では,単言語コーパスに誤り生成を施した誤りデータを用いて 20 エポック訓練する. 再学習では,学習者コーパスを用いて 30 エポック訓練する. ドメイン適応は,再学習を行ったのちに,評価データとドメインの近い訓練データで追加の学習を行うことである. ドメイン適応では, 事前学習済みモデルを学習者コーパスすべてで 5 エポック訓練し, さらに,ドメインが同じ学習者コーパスのみを用いて 20 エポック訓練する.ドメインが同じ学習者コーパスは,BEA-19 valid/test に対しては,W\&I train,CoNLL  表 5 誤り生成規則の有無が性能に与える影響の比較 13/14 は NUCLE,FCE valid/test は FCE train である. ベースラインと比較すると,提案手法による人工誤りデータを用いて事前学習し,再学習するモデルの性能がすべての評価データセットで高くなっており,多様な規則を用いる人工誤り生成が有効であることがわかる. アンサンブル,リスコアはともに性能向上に大きく寄与している.事前学習済みモデルのスコアは,ベースラインのそれに迫る結果となっているが,アンサンブルやリスコアによる性能向上は小さい。これは,事前学習済みモデルが,ベースラインモデルと比較して,良い言語モデル的性質を持っており,アンサンブルやリスコアによる恩恵を受けにくいためだと考えられる. ドメイン適応による性能向上は,句読法の規約などの,評価データ間で異なっている特徴に適応する効果によると考えられる. NUCLEコーパスは CoNLL-14 タスク [21] の訓練データセットであるが,CoNLL-14 データセットへのドメイン適応の効果は見られなかった。 誤り生成において,特定のカテゴリの誤り生成規則のみを用いる場合と,特定のカテゴリの誤り生成規則を除く場合の性能の変化をカテゴリごとに調べるために,誤り生成規則の 5 カテゴリについて, 1 つのみを用いるか,1 つを除く 800 万文で,事前学習を 10 エポック行い, 再学習, アンサンブル,リスコアを行った結果を表 5 にまとめた. 1 カテゴリの規則のみを用いる場合は, ベースラインと同程度かそれ以下となる。これは, 事前学習に用いるデータでの誤りの種類が多様でない場合には,規則による誤り生成が有効ではない可能性を示している.1 力テゴリの規則のみを取り除く場合の性能は,すべての規則を用いる場合と比較して,性能が大きくは変 図 1 事前学習データのエポック数・ステップ数による BEA-19 valid データセット上での性能変化 わらない。これは事前学習に用いるデータにおける誤りの偏りが小さいことが有効であることを支持している.また,評価データによっては,特定の誤りカテゴリがない方がスコアが高くなる.この原因を調べるためには,各誤り生成規則がスコアに与える影響を評価する方法を検討する必要がある。 逆翻訳を用いる人工誤り生成手法では,事前学習に用いるデータを大きくするとモデルの訂正性能が向上することが確認されている [5]. 図 1 の青線「エポック数を 10 に固定」は,事前学習に用いる単言語コーパスの文数を 400 万文, 800 万文,1,600 万文,3,200万文に変化させたとき,エポック数を 10 回に固定することで,総ステップ数が単言語コーパスの文数に比例する条件で事前学習を行い,再学習,アンサンブル,リスコアし,BEA-19 valid デー タセット上で評価した結果である。実験結果から,既存の報告と同様に,事前学習に用いるデータの規模が性能向上に寄与することがわかる. しかし,この実験設定では,訂正性能の向上は単言語コーパスの規模の増加によるものか,事前学習の総ステップ数の増加によるものかの区別がつかない。そこで,単言語コーパスの規模を大きくしても学習の総ステップ数がおおよそ一定になるように,エポック数を調整した条件で実験を行った. 図 1 の赤線「総ステップ数が一定」は,事前学習に用いる単言語コーパスの文数を 400 万文, 800 万文, 1,600 万文,3,200 万文と変化させたとき,エポック数をそれぞれ 40, 20, 10, 5 回に設定することで,総ステップ数が同程度になる条件で事前学習を行った結果である. 実験結果から,総ステップ数を揃えた場合,単言語コーパスが比較的小規模(400万文や 800 万文)の場合も,高い性能を示すことがわかる. これは,事前学習に用いる誤りデータでは,同じ文に対してもエポックごとに異なる誤りを生成させているためだと考えられる.また,このことは,単言語コーパスの規模が小さな言語に対しても,適切な 図 2 従来手法との BEA-19 test データセットでの ERRANT 誤り種類ごとの性能比較 誤り生成規則を設計すれば,高性能なモデルを学習できる可能性を示している. 従来の規則による誤り生成手法と, 提案手法を比較するために,表 4 の BEA-19 test データセットでの, ERRANT [27] 誤り種類の一部に対しての訂正性能の比較を図 2 に示す. 正書法の誤り (ORTH) や綴り誤り (SPELL) では,提案手法は従来手法よりも高い性能を示している。これは,提案手法の表記体系の誤りの生成が有効であることを示している. Choe らの手法 [12] と提案手法は,ドメイン適応を行っているが,句読法の誤り (PUNCT) の性能が高い。これは,句読法はドメインごとに規約が異なるためだと考えられる。冠詞誤り (DET) や,前置詞誤り (PREP), 代名詞誤り (PRON) などの機能語誤りでは,規則による誤り生成を行う従来手法との単純な比較は難しい. 機能語誤りのように訂正に前後の文脈を要する誤りの生成においては,規則による誤り生成は機械翻訳による誤り生成と比較して質が劣ると考えられる。その検証は,今後の課題である。 ## 5 おわりに 本研究では,多様な誤りに対して誤り生成規則を定義し,それらを組み合わせた人工誤り生成の枠組みを提案した。実験を通して,多様な規則を用いる誤り生成は,ニューラル文法誤り訂正の事前学習のためのデータ拡張手法として効果的であることが示された. さらに,誤り生成規則の多様性は,文法誤り訂正の事前学習の効果を向上させることがわかった. また,人工誤りデータの生成に用いる単言語コーパスが小規模な場合でも,条件によっては高性能な訂正モデルを学習できる可能性も判明した. 謝辞本研究成果は,「産総研・東工大実社会ビッグデータ活用オープンイノベーションラボラトリ」により得られたものです. ## 参考文献 [1] Marcin Junczys-Dowmunt, Roman Grundkiewicz, Shubha Guha, and Kenneth Heafield. Approaching neural grammatical error correction as a low-resource machine translation task. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 595-606, 2018. [2] Jared Lichtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora generation for grammatical error correction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3291-3301, 2019. [3] Marek Rei, Mariano Felice, Zheng Yuan, and Ted Briscoe. Artificial error generation with machine translation and syntactic patterns. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 287-292, 2017. [4] Tao Ge, Furu Wei, and Ming Zhou. Fluency boost learning and inference for neural grammatical error correction. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1055-1065, 2018. [5] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1236-1242, 2019. [6] Jared Lichtarge, Chris Alberti, and Shankar Kumar. Data weighted training strategies for grammatical error correction. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 634646, 2020. [7] Wangchunshu Zhou, Tao Ge, Chang Mu, Ke Xu, Furu Wei, and Ming Zhou. Improving grammatical error correction with machine translation pairs. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 318-328, 2020. [8] Emi Izumi, Kiyotaka Uchimoto, Toyomi Saiga, Thepchai Supnithi, and Hitoshi Isahara. Automatic error detection in the Japanese learners' English spoken data. In The Companion Volume to the Proceedings of 41st Annual Meeting of the Association for Computational Linguistics, pp. 145-148, 2003. [9] Alla Rozovskaya and Dan Roth. Training paradigms for correcting errors in grammar and usage. In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 154-162, 2010. [10] Alla Rozovskaya and Dan Roth. Generating confusion sets for context-sensitive error correction. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 961-970, 2010. [11] Chris Brockett, William B. Dolan, and Michael Gamon. Correcting ESL errors using phrasal SMT techniques. In Proceedings of the 21 st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 249-256, 2006. [12] Yo Joong Choe, Jiyeon Ham, Kyubyong Park, and Yeoil Yoon. A neural grammatical error correction system built on better pretraining and sequential transfer learning. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 213-227, 2019. [13] Simon Flachs, Ophélie Lacroix, and Anders Søgaard. Noisy channel for low resource grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 191-196, 2019. [14] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Kenneth Heafield. Neural grammatical error correction systems with unsupervised pre-training on synthetic data. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 252-263, 2019. [15] Shuyao Xu, Jiehao Zhang, Jin Chen, and Long Qin. Erroneous data generation for grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 149-158, 2019. [16] Jonas Sjöbergh and Ola Knutsson. Faking errors to avoid making errors: Very weakly supervised learning for error detection in writing. 2005. [17] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, 2011. [18] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In Proceedings of the Eighth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31, 2013. [19] Tomoya Mizumoto, Yuta Hayashibe, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. The effect of learner corpus size in grammatical error correction of ESL writings. In Proceedings of COLING 2012: Posters, pp. 863-872, 2012. [20] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, 2019. [21] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL2014 shared task on grammatical error correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, 2014. [22] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. JFLEG: A fluency corpus and benchmark for grammatical error correction. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 229-234, 2017. [23] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. GECToR - grammatical error correction: Tag, not rewrite. In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 163-170, 2020. [24] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPEdropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892, 2020. [25] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008, 2017. [26] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2699-2712, 2020. [27] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, 2017 . 表 6 誤り訂正実験の結果と既存手法との比較 \\ 図 3 事前学習データのエポック数・ステップ数による CoNLL-14 test データセッ卜上での性能変化 図4 事前学習データのエポック数・ステップ数による FCE test データセット上での性能変化 単言語コーパスの文数 図 5 事前学習データのエポック数・ステップ数による JFLEG test データセット上での性能変化 dropout 確率 図 6 BPE-dropout $の$ dropout 率による BEA-19 valid デー タセット上での性能変化 ## A 実験結果の詳細 表 4 のより詳細な結果を表 6 に示す。再学習を行った場合,ベースラインより特に再現率が高くなる. 多様な人工誤り生成を行った誤りデータでの事前学習が,多様な誤りの訂正性能に寄与することが確認できる. ドメイン適応は,評価データ間の規約の差異を埋め,再現率を向上させる。 表 5 の詳細な結果を表 7 に示す. 図 1 と同じ実験を BEA-19 valid データセット以外で行った結果を図 $3,4,5$ に示す. 他のデータセットでも図 1 と同様の結果が確認できる. BPE-dropout の dropout 確率を変化させたときのベースラインモデルの BEA-19 valid データセットでの性能変化を図 6 に示す.表 7 誤り生成規則の有無が性能に与える影響の比較 事前学習 (人工誤り・1 カテゴリのみ) +再学習 +機能語誤り $\quad \begin{array}{lllllll}59.05 & 32.65 & 50.83 & 73.29 & 43.44 & 64.44\end{array}$ +活用誤り $\quad \begin{array}{lllllllll} & 58.49 & 32.13 & 50.25 & 71.69 & 44.64 & 63.94\end{array}$ +表記体系誤り $\quad \begin{array}{lllllll}60.30 & 33.39 & 51.93 & 73.15 & 43.81 & 64.50\end{array}$ +单語選択誤り $\quad \begin{array}{lllllll}58.80 & 33.05 & 50.87 & 70.45 & 44.37 & 63.04\end{array}$ +語順誤り $\quad \begin{array}{llllll}57.80 & 32.48 & 50.00 & 68.90 & 44.76 & 62.19\end{array}$事前学習(人工誤り・1 カテゴリ除く)+再学習 -機能語誤り $\quad \begin{array}{lllllll} & 58.95 & 37.42 & 52.87 & 71.79 & 47.74 & 65.22\end{array}$ -活用誤り $\quad \begin{array}{llllllll}59.36 & 37.05 & 52.98 & 69.55 & 48.28 & 63.92\end{array}$ $\begin{array}{llllllll}\text {-表記体系誤り } & 60.10 & 34.61 & 52.38 & 74.79 & 44.74 & 65.93\end{array}$ -単語選択誤り $\quad \begin{array}{lllllll}61.03 & 35.45 & 53.33 & 74.21 & 45.78 & 66.01\end{array}$ $\begin{array}{lllllll}\text {-語順誤り } & 61.13 & 34.00 & 52.72 & 75.45 & 45.16 & 66.54\end{array}$事前学習+再学習 6
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-19.pdf
# 文法誤り訂正における複数の逆翻訳モデルを 利用した訂正傾向の比較 小山碧海甫立健悟 金子正弘 小町守 東京都立大学 \{koyama-aomi, hotate-kengo, kaneko-masahiro\}@ed.tmu.ac.jp komachi@tmu.ac.jp ## 1 はじめに 文法誤り訂正(GEC)とは,言語学習者の書いた文にある誤りを自動で訂正するタスクである.Yuan ら [1] がエンコーダ・デコーダ(EncDec)モデルを GEC 適用して以来,様々な EncDec べースの GEC モデルが提案されている $[2,3,4]$.また,GEC モデルは構造ごとに異なる訂正傾向を持つことが知られている. 例えば, CNN [5] ベースのモデルは, 局所的な誤りの訂正性能が高いことが示されている [3]. さらに,複数の GEC モデルを組み合わせることにより,性能を向上させることも行われている $[6,7]$.一方で, EncDec モデルの訓練には大量の訓練デー タが必要であり [8], GECでは訓練に使用可能な学習者データが不足しているという問題がある。そのため, 様々な擬似データ生成手法が研究されており $[4,9,10]$, 大量の擬似データを利用した EncDec モデルが顕著な性能を達成している $[11,12,13]$. 代表的な擬似データ生成手法の一つ民逆翻訳 [14] がある。逆翻訳では,GEC モデルの場合とは反対に,訂正文から学習者文を出力させるように逆翻訳モデルを訓練する. その後,逆翻訳モデルに対して文法的に正しい文を入力し,擬似的な誤りを含む文を生成する。このようにして得た擬似誤り文とその入力文のペアを擬似データとして GEC モデルの訓練に使用する. Kiyono ら [12] は, いくつかの擬似データ生成手法を比較した結果,逆翻訳による擬似データで事前学習された GEC モデルの性能が最も高かったと報告しており, 逆翻訳は最も効果的な擬似データ生成手法の一つであると考えられる。 我々は,GECモデルの場合と同様に,逆翻訳モデルの構造によって GEC モデルの訂正傾向が異なる可能性があると考えた.しかしながら,これまでの研究では逆翻訳モデルに GEC モデルと同じモデル を使用することが多く $[9,12,15]$ ,異なる逆翻訳もデルを使用した場合にどのような訂正傾向の違いがあるかを比較していない。また,Wan ら [16] は潜在表現にノイズを加えることによる擬似データ生成手法とルールベースの擬似データ生成手法を比較し,擬似データごと記正傾向が異なることを報告している。さらに,それらの擬似データを組み合わせることにより GEC モデルの性能を向上させている. したがって,訂正傾向の違いを捉えることは,より高性能な GEC モデルを構築することに繋がる。 [17], CNN,LSTM [18])を逆翻訳モデルとして使用し, それらが生成した擬似データで事前学習された GEC モデルの訂正傾向を調査した.その結果,逆翻訳モデルごとに誤りタイプ別の訂正傾向が異なることが明らかになった.さらに,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合の訂正傾向を調査した。その結果,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合,シードのみが異なる単一の逆翻訳モデルを使用した場合に対して,性能が向上するあるいは補間する性能となることを確認した。 ## 2 関連研究 Htut ら [19] は複数の GEC モデル(Transformer, CNN,PRPN [20],ON-LSTM [21])に対して,異なる逆翻訳モデル(Transformer, CNN)から生成された擬似データを使用した場合の訂正性能を調査した.その結果,GEC モデルに Transformerを使用し,逆翻訳モデルに CNNを使用した場合に最も高い性能を達成したと報告した.ただし,GECでは擬似データを事前学習に使用することが一般的であるが [4, 10, 12], Htut ら [19] は擬似データを学習者データで訓練した後の再訓練に使用するというあま り一般的ではない方法を用いている。さらに, Htut ら [19] は擬似データごとにどのような訂正傾向があるかについて報告していない. 我々は,GEC モデルに Transformer を使用し,異なる逆翻訳モデル (Transformer,CNN,LSTM)を使用した場合の訂正傾向を調査する.また,Kiyono ら [12] に従い,擬似データを GEC モデルの事前学習に使用する. White ら [22] は,直接的な編集操作による擬似データ生成手法 $[11,23]$ の比較を行なった. 1 つ目の手法 [11] では,スペルチェッカーに基づいて構築された confusion set を利用して擬似データを生成する. 2 つ目の手法 [23] では, 学習者データから抽出された誤りパターン,および動詞・名詞・前置詞の置換を利用して擬似データを生成する.2つの手法 $[11,23]$ を比較した結果,1つ目の手法 [11] ではスペリングの誤りの訂正性能が高いこと,および 2 つ目の手法 [23] では名詞の単数・複数形と時制の誤りの訂正性能が高いことを報告している. 我々は,異なる逆翻訳モデルから生成された擬似データを用いた場合の GEC モデルの訂正傾向を報告する. いくつかの研究 $[10,16,24]$ では,異なる手法により生成された擬似データを組み合わせて GEC モデルの訓練に使用している。例えば,Zhou ら [24] は,統計的機械翻訳からの翻訳文を擬似誤り文とし, ニューラル機械翻訳からの翻訳文を擬似訂正文とする擬似データ生成手法を提案し,さらに逆翻訳により生成された擬似データを組み合わせて GEC モデルの訓練に使用している. しかしながら, Zhou ら [24] は,擬似データを組み合わせた場合の GEC モデルの訂正傾向について報告していない. 我々は,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合の GEC モデルの訂正傾向を報告する。 ## 3 実験設定 ## 3.1 データセット 訓練データおよび検証データには BEA-2019 [25] で使用されたものを用いた. BEA-2019 で使用されたデータセットは FCE [26], Lang-8コー パス [27, 28], NUCLE [29], および W\&I+LOCNESS [30, 31] から構成されている. Chollampatt ら [3] に従い,訓練データから編集のない文対を削除した。その後, 訓練データの訂正文側のみからサブワードを獲得し,BPE [32]を適用した.ここで,語彙サイズは 8,000 とした. 以降では,訓練データおよび検証 データをそれぞれ BEA-train,BEA-valid と呼ぶ. また,擬似誤り文を生成するための生成元コーパスとして,Wikipediaからランダムに抽出した 900 万文を使用した1)。 ## 3.2 性能評価 GEC モデルの評価データには,CoNLL-2014 [33], JFLEG [34], および BEA-2019 のテストデータ (BEAtest)を使用した. CoNLL-2014 では M ${ }^{2}$ [35],JFLEG では GLEU [36]を評価指標に用いた. また, BEA-test およびBEA-valid は, ERRANT $[37,38]$ を用いて評価を行なった.アンサンブルモデルを除く報告する全ての値は 3 つの異なるシードを用いて訓練された GEC モデルのスコアの平均である ${ }^{21}$. アンサンブルモデルでは,平均值を得るために訓練した 3 つの GEC モデルをアンサンブルした結果を報告する。 ## 3.3 文法誤り訂正モデル GEC モデルには,代表的な EncDec ベースのモデルである Transformerを使用した. モデルのアーキテクチャは Vaswani ら [17] の "Transformer (base)" とし,fairseq [39]にある実装を用いた. Kiyono ら [12] に従い,擬似データを事前学習に使用し,その後 BEA-train でファインチューニングを行なった. 事前学習では Adam [40], ファインチューニングでは Adafactor [41] を最適化に用いた。 さらに,ベースラインとして,事前学習を行わずに BEA-train のみを用いて訓練したモデルを用意した. また,異なる逆翻訳モデルから生成した擬似デー タを組み合わせた場合の訂正傾向を調査するため, 3.4 節で説明する逆翻訳モデルのうち Transformer および CNN から生成した 900 万文の擬似データを組み合わせた 1,800 万文の擬似データで事前学習された GEC モデルを用意した. さらに,異なる逆翻訳モデルを使用した場合と比較するため,シードのみが異なる単一の逆翻訳モデルから擬似データを生成し, 同様に組み合わせた擬似データで事前学習された GEC モデルを用意した。ここで,全ての逆翻訳モデルに与えた文は同じである。そのため,擬似データを組み合わせた際,擬似誤り文側の種類数は増えているが,訂正文側の種類数は増えていない。 1) 2020 年 7 月 6 日のダンプデータを用いた. 2)逆翻訳モデルのシードの違いによる影響を軽減するため,各シードの GEC モデルごとに対応するシードで訓練した逆翻訳モデルを用意した. そして,その対応する逆翻訳モデルから生成した擬似データを GEC モデルの事前学習に使用した. 表 1: それぞれの GEC モデルの訂正性能(シングルモデルアンサンブルモデル)上段は逆翻訳モデルごとの性能を表し,下段は擬似データを組み合わせて使用した場合の性能を表す。 } & \multicolumn{3}{|c|}{ BEA-test } \\ ## 3.4 逆翻訳モデル GEC において逆翻訳を使用している研究が用いているモデルを参考にして,Transformer,CNN,および LSTM を選択した。また,全てのモデルの実装は fairseqにあるものを使用した. さらに,多様な誤りを生成するために,デコード時に Xie ら [9] によって提案されたノイズ付きビームサーチを使用した. 本手法では,ビームサーチ時に,毎ステップごとの各仮説のスコアに $r \beta_{\text {random }}$ をノイズとして加える. ここで, $r$ は区間 $[0,1]$ の一様分布からランダムに選択される値であり, $\beta_{\text {random }}$ はノイズの大きさを調節するためのハイパーパラメータである.本実験においては, Transformer では $\beta_{\text {random }}=8, \mathrm{CNN}$ では $\beta_{\text {random }}=10$, LSTM では $\beta_{\text {random }}=12$ とした ${ }^{3}$ ). ## 4 実験結果 ## 4.1 全体の訂正性能 逆翻訳モデルごとの訂正性能表 1 の上段に,逆翻訳モデルごとの訂正性能を示す. 表 1 より,評価データによって,優れている逆翻訳モデルが異なることが分かる. 例えば,CoNLL-2014では Transformerを使用した場合に最も性能が高く, JFLEG および BEA-test では CNN を使用した場合に最も性能が高いことが分かる. また, BEA-test では,Transformer よりもLSTM を使用した場合の方が, $\mathrm{F}_{0.5}$ 值が高いことが分かる. したがって,GEC モデルとして高い性能を持つ Transformer [12] が,必ずしも逆翻訳モデルとしても優れているとは限らないことが示唆される。 擬似データを組み合わせた場合の訂正性能表 1 の下段に,擬似データを組み合わせた場合の訂正性 3) 事前実験において,BEA-valid 上で最大の $F_{0.5}$ 值となった時の値を使用した。能を示す. 表 1 より, 異なる逆翻訳モデルから生成した擬似データを組み合わせて使用した場合,擬似データを組み合わせない場合よりも一貫して性能が向上していることが分かる。一方で,シードのみが異なる単一の逆翻訳モデルから生成した擬似デー タを組み合わせた場合,一部の項目において組み合わせない場合よりも性能が低下していることが分かる.例えば,Transformer では,アンサンブルモデルにおける CoNLL-2014 上の $\mathrm{F}_{0.5}$ 值で,組み合わせない場合のスコアは 59.0 であるが,組み合わせた場合のスコアは 58.9 である。また, CNN の場合でも同様に,アンサンブルモデルにおける BEA-test 上の $\mathrm{F}_{0.5}$ 值で,組み合わせない場合のスコアは 63.4 であるが,組み合わせた場合のスコアは 63.3 である. したがって,異なる逆翻訳モデルから生成した擬似データを組み合わせて使用する方が,シードのみが異なる単一の逆翻訳モデルを使用するよりも,より頑健な GEC モデルが構築されると考えられる. ## 4.2 誤りタイプ別の訂正性能 逆翻訳モデルごとの訂正性能表 2 の左側に,シングルモデルにおける BEA-test 上での誤りタイプ別の $\mathrm{F}_{0.5}$ 值を示す. 表 2 より,Transformer では PRON (代名詞)の誤りの性能が高いことが分かる.また, CNN では PREP (前置詞), VERB:TENSE (時制) および VERB:SVA(主語と動詞の一致)の誤り,LSTM では VERB(動詞)の誤りの性能が高いことが分かる.したがって,逆翻訳モデルごとに誤りタイプ別の訂正傾向が異なると考えられる. また,Transformerを逆翻訳モデルに使用した場合,PUNCT(句読点)の誤りの性能がベースラインよりも低下している。さらに,CNNと LSTM の場合でも,他の誤りタイプと比較して,PUNCT の誤りはベースラインからの性能の向上幅が小さいこと 表 2: シングルモデルにおける BEA-test 上での誤りタイプ別の $\mathrm{F}_{0.5}$ 值. 頻度が 100 以上である誤りタイプを抜き出した. また,全ての誤りタイプの頻度の合計は 4,882 である。なお,誤りタイプの詳細は文献 [37]を参照せよ. & & \\ が分かる。したがって,逆翻訳による擬似データを使用した場合,PUNCT の誤りは性能を改善させることが難しい誤りタイプであると考えられる. 擬似データを組み合わせた場合の訂正性能表 2 の右側に,擬似データを組み合わせた場合のシングルモデルにおける BEA-test 上での誤りタイプ別の $\mathrm{F}_{0.5}$ 值を示す. 表 2 より, PUNCT, VERB:TENSE および VERB:FORM(不定詞・動名詞・分詞の用法) を除く誤りタイプにおいて,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合の方が, シードのみが異なる単一の逆翻訳モデルを使用した場合の少なくとも一方よりも性能が高いことが分かる.そのため,異なる逆翻訳モデルから生成した擬似データを使用した場合,シードのみが異なる単一の逆翻訳モデルを使用した場合に対して,性能が向上するあるいは補間する性能を持つと考えられる. また, OTHER(その他)の誤りについて,シードのみが異なる単一の逆翻訳モデルから生成した擬似データを組み合わせた場合,組み合わせない場合と比較して, 性能が向上していないことが分かる。一方で,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合は,組み合わせない場合よりも性能が向上している. したがって,異なる逆翻訳モデルを使用することにより,より多様な誤りタイプを訂正することが可能になると考えられる。 シードの違いによる影響ここでは,逆翻訳モデルのシードの違いによる影響について検討する. 表 2 より, 異なる逆翻訳モデルから生成した擬似デー タを組み合わせた場合よりも,シードのみが異なる単一の逆翻訳モデルを使用した場合の方が,高い性能になる誤りタイプがあることが分かる. 我々は, この理由の一つとして, 逆翻訳モデルのシー ドのみを変えた場合でもある程度性能にばらつきがあるためであると考える.例えば,逆翻訳モデルに Transformerを使用した場合,DET(限定詞)の誤りの標準偏差は 1.62 と比較的高い. またこの時, Transformer \& CNN よりも, Transformer \& Transformer の方が高い性能になっている。このように,ある程度性能にばらつきがある誤りタイプでは,シードのみが異なる単一の逆翻訳モデルを使用した場合でも,異なる逆翻訳モデルを使用した場合と比べて,性能が向上する可能性があると考えられる. ## 5 おわりに 本研究では,逆翻訳モデルごとの GEC モデルの訂正傾向を調査した. その結果,逆翻訳モデルごとに誤りタイプ別の訂正傾向が異なることが分かった.また,異なる逆翻訳モデルから生成した擬似データを組み合わせた場合,シードのみが異なる単一の逆翻訳モデルから生成した擬似データを組み合わせた場合に対して,性能が向上するあるいは補間する性能を持つことを確認した。 ## 謝辞 Lang-8 のデータを使用したことについて, 株式会社 Lang-8 の喜洋洋氏に感謝申し上げます. ## 参考文献 [1] Zheng Yuan and Ted Briscoe. Grammatical error correction using neural machine translation. In NAACL, pp. 380-386, 2016. [2] Jianshu Ji, Qinlong Wang, Kristina Toutanova, Yongen Gong, Steven Truong, and Jianfeng Gao. A Nested Attention Neural Hybrid Model for Grammatical Error Correction. In $A C L$, pp. 753-762, 2017. [3] Shamil Chollampatt and Hwee Tou Ng. A Multilayer Convolutional Encoder-Decoder Neural Network for Grammatical Error Correction. In AAAI, pp. 5755-5762, 2018. [4] Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, and Jingming Liu. Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data. In NAACL, pp. 156-165, 2019 [5] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. Convolutional Sequence to Sequence Learning. In ICML, pp. 1243-1252, 2017. [6] Roman Grundkiewicz and Marcin Junczys-Dowmunt. Near Human-Level Performance in Grammatical Error Correction with Hybrid Machine Translation. In NAACL, pp. 284-290, 2018. [7] Yoav Kantor, Yoav Katz, Leshem Choshen, Edo Cohen-Karlik, Naftali Liberman, Assaf Toledo, Amir Menczel, and Noam Slonim. Learning to combine Grammatical Error Corrections. In $B E A, \mathrm{pp}$. 139-148, 2019. [8] Philipp Koehn and Rebecca Knowles. Six Challenges for Neural Machine Translation. In WNMT, pp. 28-39, 2017. [9] Ziang Xie, Guillaume Genthial, Stanley Xie, Andrew Ng, and Dan Jurafsky. Noising and Denoising Natural Language: Diverse Backtranslation for Grammar Correction. In NAACL, pp. 619-628, 2018. [10] Jared Lichtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora Generation for Grammatical Error Correction. In NAACL, pp. 3291-3301, 2019. [11] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Kenneth Heafield. Neural Grammatical Error Correction Systems with Unsupervised Pre-training on Synthetic Data. In BEA, pp. 252-263, 2019. [12] Shun Kiyono, Jun Suzuki, Tomoya Mizumoto, and Kentaro Inui. Massive Exploration of Pseudo Data for Grammatical Error Correction. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 2134-2145, 2020. [13] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-Decoder Models Can Benefit from Pretrained Masked Language Models in Grammatical Error Correction. In $A C L$, pp. 4248-4254, 2020 [14] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving Neural Machine Translation Models with Monolingual Data. In $A C L$, pp. 86-96, 2016. [15] Tao Ge, Furu Wei, and Ming Zhou. Fluency Boost Learning and Inference for Neural Grammatical Error Correction. In $A C L$, pp. 1055-1065, 2018. [16] Zhaohong Wan, Xiaojun Wan, and Wenguang Wang. Improving Grammatical Error Correction with Data Augmentation by Editing Latent Representation. In COLING, pp. 2202-2212, 2020. [17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In NeurIPS, pp. 5998-6008, 2017. [18] Sepp Hochreiter and Jürgen Schmidhuber. Long Short-Term Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [19] Phu Mon Htut and Joel Tetreault. The Unbearable Weight of Generating Artificial Errors for Grammatical Error Correction. In BEA, pp. 478-483, 2019. [20] Yikang Shen, Zhouhan Lin, Chin wei Huang, and Aaron Courville. Neural Language Modeling by Jointly Learning Syntax and Lexicon. In ICLR, 2018. [21] Yikang Shen, Shawn Tan, Alessandro Sordoni, and Aaron Courville. Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks. In ICLR, 2019. [22] Max White and Alla Rozovskaya. A Comparative Study of Synthetic Data Generation Methods for Grammatical Error Correction. In BEA, pp. 198-208, 2020. [23] Yo Joong Choe, Jiyeon Ham, Kyubyong Park, and Yeoil Yoon. A Neural Grammatical Error Correction System Built On Better Pretraining and Sequential Transfer Learning. In BEA, pp. 213-227, 2019. [24] Wangchunshu Zhou, Tao Ge, Chang Mu, Ke Xu, Furu Wei, and Ming Zhou. Improving Grammatical Error Correction with Machine Translation Pairs. In EMNLP Findings, pp. 318-328, 2020. [25] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 Shared Task on Grammatical Error Correction. In BEA, pp. 52-75, 2019. [26] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A New Dataset and Method for Automatically Grading ESOL Texts. In $A C L$, pp. 180-189, 2011. [27] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining Revision Log of Language Learning SNS for Automated Japanese Error Correction of Second Language Learners. In IJCNLP, pp. 147-155, 2011. [28] Toshikazu Tajiri, Mamoru Komachi, and Yuji Matsumoto. Tense and Aspect Error Correction for ESL Learners Using Global Context. In $A C L$, pp. 198-202, 2012. [29] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English. In BEA, pp. 22-31, 2013. [30] Sylviane Granger. The computerized learner corpus: a versatile new source of data for SLA research. In Learner English on Computer, pp. 3-18. 1998. [31] Helen Yannakoudakis, Øistein E Andersen, Ardeshir Geranpayeh, Ted Briscoe, and Diane Nicholls. Developing an Automated Writing Placement System for ESL Learners. Applied Measurement in Education, Vol. 31, No. 3, pp. 251-267, 2018. [32] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In $A C L$, pp. 1715-1725, 2016. [33] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL2014 Shared Task on Grammatical Error Correction. In CoNLL, pp. 1-14, 2014. [34] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction. In EACL, pp. 229-234, 2017. [35] Daniel Dahlmeier and Hwee Tou Ng. Better Evaluation for Grammatical Error Correction. In NAACL, pp. 568-572, 2012. [36] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground Truth for Grammatical Error Correction Metrics. In ACL-IJCNLP, pp. 588-593, 2015. [37] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction. In $A C L$, pp. 793-805, 2017 [38] Mariano Felice, Christopher Bryant, and Ted Briscoe. Automatic Extraction of Learner Errors in ESL Sentences Using Linguistically Enhanced Alignments. In COLING, pp. 825-835, 2016. [39] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In NAACL, pp. 48-53, 2019. [40] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In ICLR, 2015 [41] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive Learning Rates with Sublinear Memory Cost. In ICML, pp. 4596-4604, 2018 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-1.pdf
# 依存構造から句構造への変換による多言語モデリングに向けて 神藤駿介†態地宏ま宮尾祐介† $\dagger$ 東京大学大学院 情報理工学系研究科 産業技術総合研究所人工知能研究センター \{kando.s, yusuke\}@is.s.u-tokyo.ac.jp \{s-kandou, hiroshi.noji\}@aist.go.jp ## 1 はじめに 伝統的に自然言語は階層構造を有していると言われており、自然言語理解においてはその構造の把握が重要であるとされている。近年は言語モデルの発達が著しいが、それらが自然言語の階層構造を十分に捉えているとは限らず、正確な自然言語理解が出来ているかは議論の余地がある。Linzen ら [1] は、統語構造の把握を要するタスクを定義することでモデルの統語構造把握能力の検証を試みている。Hu ら [2] はそのようなテストを多数含むベンチマークを提案し、LSTM 言語モデルはパープレキシティの面では高い性能を有しつつも、統語構造の把握能力は低いことを示している。この問題を解決する手段として、Recurrent Neural Network Grammar (RNNG, [3]) のように学習の際に句構造の情報を活用することが考えられる。RNNG は [2]においても高い統語構造把握能力を有していることが示されている。 現状 RNNG は英語のテキストを元に学習されたモデルによる研究がほとんどであり、あらゆる言語で同じような性能を発揮するかは分かっていない。 そのため、RNNG を多言語でモデリングし調査することには意義がある。その実現にあたり、代表的な多言語ツリーバンクである Universal Dependencies (UD, [4])を活用することが考えられるが、UD は依存構造注釈付きのツリーバンクであるため、RNNG の学習に活用するためには言語非依存ななんらかの方法で句構造へ変換する必要がある。 そこで本研究では、依存構造から句構造への変換手法を複数試し、RNNG の学習においてどのような構造が適するかを比較・検討する。今回はそれらの変換手法をUD のアノーテーション形式に基づいた英語と日本語のツリーバンクに適用してモデルの学習を行った。これに加え、代表的な句構造ツリーバンクである Penn Treebank (PTB, [5]) での学習も行っ た。これらのモデルのパープレキシティを評価することで、各変換手法の質の比較・検討を行った。さらに、英語を元にしたモデルに関しては統語構造把握能力の評価を行った。実験を通して、依存構造をある種の句構造へ変換することで、PTB で学習したモデルに匹敵する性能を持つモデルが構築できることを示した。この変換は言語非依存であるため、 UD のあらゆる言語のツリーバンクに対して適応可能であり、本研究の拡張性を見込むことができる。 ## 2 関連研究 ## 2.1 Recurrent Neural Network Grammar RNNG [3] は句構造生成モデルであり、単語列 $\boldsymbol{x}$ と句構造 $\boldsymbol{y}$ の同時確率分布 $p(\boldsymbol{x}, \boldsymbol{y})$ を推定することで、言語モデルと句構造解析器を同時に学習することを目指す。 $p(\boldsymbol{x}, \boldsymbol{y})$ は、 $\boldsymbol{y}$ を得る句構造解析のアクション列 $\boldsymbol{a}=\left(a_{1}, a_{2}, \cdots, a_{n}\right)$ を用いて次のように推定する: $ p(\boldsymbol{x}, \boldsymbol{y})=\prod_{t=1}^{n} p\left(a_{t} \mid a_{1}, \cdots, a_{t-1}\right) $ RNNG は、 $\arg \max _{\boldsymbol{y}} p(\boldsymbol{y} \mid \boldsymbol{x})$ を計算することで句構造解析器として、 $p(\boldsymbol{x})=\sum_{\boldsymbol{y}} p(\boldsymbol{x}, \boldsymbol{y})$ を計算することで言語モデルとして活用することができる。これらの確率を解析的に求めることは難しく、様々な推定法が提案されている $[3,6,7]$ 。 RNNG は句構造解析器や言語モデルとして高い性能を持つだけでなく、統語構造の把握能力が高いこと [8]、人間の認知モデルとしての妥当性が高い [9] など、様々な利点が報告されている。 ## 2.2 依存構造から句構造への変換 自然言語の構文構造を表現する主要な枠組みとして、依存構造と句構造がある。両者は異なる構造で (a) flat (b) left-first (c) right-first 図 1 依存構造から句構造への変換アルゴリズム 図 2 非終端記号ラベルの付け方 ありながら互いに関連し合っており、一方から他方へ変換する手法に関する研究も幅広く行われている。依存構造から句構造への変換手法は大きく分けて以下の二つである: 1. 句構造ツリーバンクを外部知識として活用し、 data-driven に変換器を構築する手法 $[10,11]$ 2. 外部知識を用いず、依存構造から一定のアルゴリズムによって変換する手法 $[12,13]$ 1. はより頑健で精度の高い変換を可能とするが、依存構造単体から変換することが出来ない。一方 2. は依存構造単体から変換できるが、得られた構造が妥当なものであるかについては疑問の余地が残る。 本研究はUDを活用した多言語のモデリングを目標としているため、1. のように対応する句構造ツリーバンクを要する手法は相性が悪い。そのため、 2.の手法をべースにした変換を行う。 ## 3 変換手法 依存構造を句構造へ変換するにあたり、[13] で紹介されている 3 つのアルゴリズムを利用した。これに加え、句構造の非終端記号ラベルの付け方についても 3 通り試した。すなわち、合計で $3 \times 3=9$ 通りの変換手法を試した。 図 1 に 3 つの変換アルゴリズムの概略を示す。これらのアルゴリズムは全てトップダウンに句構造を形成するものであり、以下のような共通の取り決め を設ける: ・はじめに、主辞に対応する非終端記号 $\mathrm{NT}_{\text {like }}$ を導入する。 - 依存構造上の子を句構造に導入する際は、 $\mathrm{NT}_{\mathrm{I}}$ や $\mathrm{NT}_{\text {music }}$ のように、対応する非終端記号を導入する。 ・現在注目している語について、依存構造上に子が存在しないときは、その語を終端記号として導入する。 以下、ある単語(ここでは主辞 like)の左右に子が存在しているケースを元にして各アルゴリズムの動作を説明する。(a) flat では、現在注目している単語 like とその子を全て一度に句構造における子とする。この変換においては、各非終端記号は任意の個数の子を持つことができ、全体として平らな構造になりやすい。(b) left-first では、単語の左右に子が存在する場合に、左の子から順に句を形成する。すなわち、まず $\mathrm{NT}_{\mathrm{I}}$ を左の子として導入し、終端記号 I の導入が完了した後に、右の子 $\mathrm{NT}_{\text {music }}$ を導入する。 (c) right-first は (b) と逆に、右の子から順に句を形成する。(b) (c) においては、完成する句構造は完全二分木となる。 非終端記号ラベルの付け方は図 2 の通りで、それぞれラベルとして X、POS タグ、依存ラベルを使用する。 ## 4 実験設定 本研究の目標は、3 で紹介した手法で依存構造を句構造に変換して得られたツリーバンクを用いて RNNG を学習し、その性能を比較し、変換の妥当性を検証することである。そのために以下のような実験設定を施した。 ## 4.1 データセット 依存構造ツリーバンクとして、UD の English-EWT 及び Japanese-GSD を使用した。これに加え、伝統的な句構造ツリーバンクである Penn Treebank (PTB) と、それをUD 形式の依存構造ツリーバンクに変換したもの (PTB-to-UD) も使用した。PTB-to-UDを得るにあたっては [14]の手法を活用した。PTB-to-UD に対して句構造への変換を施したツリーバンクと純粋な PTB との結果を比較することで、変換アルゴリズムの妥当性を検証する。 データセットの統計情報(訓練・検証・テストセットの文章数、及び語彙数)を表 1 に示す。語彙については、訓練データ中で 2 回以上出現した語を使用した。なお、本研究においては依存構造が交差を含むようなデータは除外している。これは、交差を含む依存構造においては我々の変換アルゴリズムが正常に動作しないためである。今回用いたツリー バンクに関しては、交差を含むデータは $1 \%$ も満たなかったため、大きな影響は無いと判断した。 ## 4.2 学習の詳細 RNNG の学習においては、基本的には元論文 [3] と同様のハイパーパラメータを使用した。最適化で用いるアルゴリズムを変えており、元論文では学習率 0.1 の確率的勾配降下法を用いているが、本研究では学習率 0.001 の Adam を用いた。学習のエポック数は、English-EWT 及び Japanese-GSD では 18、PTB 及び PTB-to-UD では 40 とした。 ## 4.3 評価 本研究では、モデルの言語モデルとしての性能、及び統語構造把握能力の両面で評価を行った。言語モデルとしての性能は、各データセットの検証デー タにおけるパープレキシティ (ppl)を評価指標とした。ppl の算出においては word-synchronous beam search [6] を採用し、ビーム幅 $k=100$ 、単語ビーム幅 $k_{w}=10$ 、fast-track 数 $k_{s}=1$ とした。 図 3 SyntaxGym のテスト例(一致) 統語構造把握能力は、[2] で提案されているべンチマーク (SyntaxGym)を用いて評価した。SyntaxGym は、英語テキストの統語構造の把握を必要とする 34 のテストをまとめたものであり、取り扱っている言語現象に応じて Agreement (一致) や Center Embedding(中央埋め込み)などと言った 6 つのカテゴリに分類される。図3 に一致のテストの一例を示す。この例では、下線部の動詞の予測確率を比較し、 $P($ knows $)>P($ know $)$ となれば正解とみなす。本研究では 6 つの各カテゴリについての精度を報告する。ランダムベースラインは各テストによって異なるが、総じて $25 \%$ 以下となっている。 ## 5 結果と議論 ## 5.1 言語モデルとしての性能 (ppl) の比較 図 4 に各ツリーバンクで学習したモデルのパー プレキシティを示した。変換アルゴリズムに依る差を見ると、どのツリーバンクにおいても ppl の值は flat、left-first、right-first の順で大きくなる。すなわち、言語モデルの性能としては flat が最善であることが分かる。これは、left-first や right-first の変換を施すと句構造は完全二分木となるため、句構造が深くなりやすく、構文解析のアクションが煩雑かつ大量になることに起因すると思われる。 以下、flatな変換に注目してラベルの付け方に依る差を考察する。英語テキストに関してはどのラベルを用いても pplには差がないが、日本語テキストの場合は X、POS、DEP の順で大きくなる。日本語テキストは図6 のような左枝分かれ構造になりやすいため、トップダウンな句構造解析においてははじめに非終端記号を複数導入する必要があり、解析が難しくなる。そのため、非終端記号の導入時のラべルの選択肢が少ない順(X、POS、DEP の順)が ppl に反映されていると考えられる。 注目すべきは、PTB-to-UDをflatなアルゴリズムを用いて変換して学習に用いた場合、その $\mathrm{ppl}$ は純粋な PTB で学習したモデルの ppl とほぼ同程度である点である。RNNGの言語モデルとしての性能は、 図 4 パープレキシティ (ppl) の比較。PTB-to-UD における点線は、PTB で学習したモデルの ppl (105)を示す。 図 5 SyntaxGym を用いた統語構造把握能力の測定結果 図 6 Japanese-GSD を句構造に変換した出力例 元々句構造ツリーバンクとして作成された PTBを使っても、依存構造から flat な句構造に変換して得られたツリーバンクを使ってもほぼ変わらないことを示している。 ## 5.2 統語構造把握能力の比較 5.1 では、PTB と PTB-to-UD を flat な構造に変換したツリーバンクとで得られるモデルの言語モデルとしての性能差はほぼ無いことを示した。では、これらのモデルの統語構造把握能力にはどのような差があるだろうか。図 5 に、両モデルの SyntaxGym における評価の結果を示した。図から分かる通り、全体として PTB-to-UDを元に得たモデルは PTBを元に得たモデルに匹敵する精度を記録している。特に、ラベルの付け方として POS を選択した場合、全ての評価カテゴリにおいて PTB をベースにしたものと同じかそれ以上の性能を示している。各ラベル付け手法についても性能を比較すると、 Garden-Path Effects を除く全てのカテゴリにおいて POS と DEP がXより高い性能を示している。このことから、三者は $\mathrm{ppl}$ の側面ではほとんど差がなかったが、統語構造把握能力に関してはラベルを明確に導入した方が性能が高まると言える。 ## 6 終わりに 本研究では、依存構造を句構造に変換する複数の手法を試して RNNG を学習し、その性能を比較・検討した。特に、flat な句構造に変換して学習に用いることで、PTB 形式の句構造を元に学習したモデルと同等かそれ以上の性能を誇るモデルが構築できることを示した。変換アルゴリズムは言語非依存に適用可能であるため、今後 UD のあらゆる言語のツリーバンクに対して同様の実験を行い、本研究の手法の適用範囲を調査していきたい。多言語での実験においては、統語構造把握能力の評価がネックとなる。例えば [15]に紹介されている手法を用いることが考えられる。また、今回施した変換は言語非依存ではあるもののかなりナイーブである。多言語に適用可能で、なおかつ得られるモデルの性能がより向上するような変換手法に関しても調査を続けていきたい。句構造解析ではなく依存構造解析を用いたモデリングも提案されており [16]、この手法との比較も今後行っていきたい。 ## 参考文献 [1] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of 1stms to learn syntax-sensitive dependencies. TACL, Vol. 4, pp. 521-535, 2016. [2] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A systematic assessment of syntactic generalization in neural language models. In $A C L, 2020$. [3] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In NAACL HLT, 2016. [4] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajic, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis M. Tyers, and Daniel Zeman. Universal dependencies v2: An evergrowing multilingual treebank collection. CoRR, Vol. abs/2004.10643, , 2020. [5] Mitchell P. Marcus, Grace Kim, Mary Ann Marcinkiewicz, Robert MacIntyre, Ann Bies, Mark Ferguson, Karen Katz, and Britta Schasberger. The penn treebank: Annotating predicate argument structure. In Human Language Technology, Proceedings of a Workshop, 1994. [6] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In $E M N L P, 2017$. [7] Benoît Crabbé, Murielle Fabre, and Christophe Pallier. Variable beam search for generative neural parsing and its relevance for the analysis of neuro-imaging signal. In EMNLP-IJCNLP, 2019. [8] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. Lstms can learn syntax-sensitive dependencies well, but modeling structure makes them better. In $A C L$. [9] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Iryna Gurevych and Yusuke Miyao, editors, $A C L, 2018$. [10] Lingpeng Kong, Alexander M. Rush, and Noah A. Smith. Transforming dependencies into phrase structures. In NAACL HLT, 2015. [11] Young-Suk Lee and Zhiguo Wang. Language independent dependency to constituent tree conversion. In COLING, 2016. [12] Fei Xia and Martha Palmer. Converting dependency structures to phrase structures. In $H L T, 2001$ [13] Michael Collins, Jan Hajic, Lance A. Ramshaw, and Christoph Tillmann. A statistical parser for czech. In ACL, 1999. [14] Sebastian Schuster and Christopher D. Manning. Enhanced english universal dependencies: An improved representation for natural language understanding tasks. In LREC, 2016. [15] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In ACL, 2020. [16] Austin Matthews, Graham Neubig, and Chris Dyer. Comparing top-down and bottom-up neural generative dependency models. In CoNLL, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-20.pdf
# 日本語学習者コーパス I-JAS を用いた母語識別 西島光洋 1,2 劉穎 1 中田和秀 2 1 清華大学人文学院中国語言文学系 2 東京工業大学工学院経営工学系 nishijima.m.ae@m.titech.ac.jp, yingliu@tsinghua.edu.cn, nakata.k.ac@m.titech.ac.jp ## 1 はじめに 母語識別 (Native Language Identification, NLI)とは, ある文書が母語話者以外によって書かれたことが分かっている前提のもとで,その文書の書き手の母語を識別するタスクである. NLI は第 2 言語習得 (Second Language Acquisition, SLA) や法言語学の分野で応用がされ得る.たとえば,第 2 言語 (L2) 学習者が書いた文書に対する自動誤り訂正研究において,書き手の母語を考慮することで訂正の質が向上することが指摘されており [1], NLIにより書き手の母語を自動的に認識することができれば,より質の高いフィードバックを学習者に与えられるようになる. また [2] では, NLIにおける機械学習モデルを解釈することで, 既存の SLA 研究で得られた知見に新たな証拠を与えたり,新たな仮説を提唱したりできるとしている. そして NLI は,文書の書き手の属性を推定するタスクである著者プロファイリングの一種としても捉えることができ,犯罪捜査における活用も期待される [3]. 日本語学習者の数は年々増加傾向にあり [4], さらに 2019 年度から特定技能制度が開始されたことで, 日本語をL2とする人は今後も増加していくと考えられる。 したがって,これまで L2 英語を中心にして行われてきた NLI 研究を L2 日本語に拡張することは重要である. 本稿は, L2 としての日本語で書かれた文書(以下 L2 日本語文書)に対して初めて NLIを行ったものである. また, 既存の NLI 研究で有効とされていた特徴に加えて, 日本語特有の特徴として文字種を新たに提案する。これらの特徴を用いて L2 日本語文書の NLI を行った結果を報告する。 さらに,[2]の手法を参考に, 線形サポートベクトルマシン (SVM) の重みベクトルを用いて, 中国語母語話者の過剩使用表現について分析する。 ## 2 関連研究 NLI 研究の先駆けは, Koppel らによる研究 [5] である. 彼らは, 機能語, スペルミスなどの誤用, 文字 Ngram と品詞 (POS) Ngram を特徴として, 5 つの言語をそれぞれ母語とする人によって書かれた文書に対して線形SVM で分類を行なった結果, 最高で $80.2 \%$ の正解率 (accuracy) が得られたとしている.これを契機として,どのような特徴や分類器を用いることで NLI の識別性能を高められるかという研究が進むことになる. 2013 年には, 11 の言語をそれぞれ母語とする人によって書かれた文書に対する分類正解率を競う競技会が行われた。その競技会の報告論文 [6] では, 単語, POS や文字の Ngram が特徵として多く採用され, SVM が分類器として多く採用されたことが報告されている. 以上の研究はすべて L2 英語を対象にした NLI であった。そこで,英語に対して有効性が確認された NLI の手法が他の言語でも有効なのかという観点から,英語以外の言語を対象とした NLI 研究が 2011 年以降盛んに行われてきた $[7,8,9,10,11,12,13]$. 一方で,日本語に目を向けてみると,与えられた日本語文書が母語話者によって書かれたものかどうかを機械学習手法を用いて識別する研究 [14] はあったとしても,日本語を対象にした NLI 研究は管見の限り存在しない. ## 3 手法 本節では, 本稿で用いたコーパスとその処理方法, そして特徴べクトルを作成する際に着目した文体特徴と文書を分類するときに用いた分類器を述べる. ## 3.1 コーパスとその処理 本稿では, 日本語学習者コーパスとして『多言語母語の日本語学習者横断コーパス (I-JAS)』[15]を使用 した。I-JAS には, 中国語(中), 英語(英), フランス語 (仏), ドイツ語 (独), ハンガリー語 (洪), インドネシア語(尼), 韓国語 (韓), ロシア語(露),スペイン語 (西), タイ語 (泰), トルコ語 (土), ベトナム語(越)の計 12 言語をそれぞれ母語とする日本語学習者によって産出されたデータが収録されている.今回は I-JAS に含まれるデータのうち,2 種類のコマ割り漫画を見てそのストーリーをそれぞれ描写するストーリーライティング課題で産出された文書を用い,2 種類の漫画からそれぞれ産出された 2 つの文書を各学習者ごとに結合させたものを 1 文書として扱った. 中国語, 英語, 韓国語以外の 9 言語の学習者デー タは母語ごとにそれぞれ 50 件あるので,それらをすべて用いた。一方で, 中国語, 英語, 韓国語母語話者のデータは収録数がそれぞれ 50 件を超えていたため, なるべく前述の 9 言語の学習者全体の日本語習熟度分布と一致するようにそれぞれ 50 件選択した1). つまり, 各母語話者ごとに 50 文書, 計 600 文書を用意した。これらの文書に対して, 日本語自然言語処理ライブラリ GiNZA[16] を用いて形態素解析と依存構造解析を行なった。 ## 3.2 文体特徵 各文書の特徴ベクトルを作成する際に着目した文体特徴とその説明ないし例を示す. 括弧内の英文字は, 以下で用いる略称である. なお, 以下で用いる 「1-Ngram」とは,ある言語要素の 1 gram から Ngram までのすべてを指す. (1) 形態素の基本形 (Lemma) 1-Ngram : 句読点や記号なども含める。 [例]、二人 (2gram) (2) 文字 (CHAR) 1-Ngram : 句読点や記号なども含める. [例] !」と (3gram) (3) 助詞と助動詞の基本形 (FW) 1-Ngram: 英語の機能語に対応する特徴. 品詞情報の第 1 階層が「助詞」または「助動詞」である形態素の基本形. [例]にられる (2gram) (4) 品詞 (POS) 1-Ngram: 最深階層までの品詞情報. [例] 名詞-固有名詞-人名-名 (1gram) (5) 依存関係のラベル (DEP) : Universal Dependencies のラベル. [例] nmod  (6) 依存関係のラベルと 2 つの Lemma の 3 つ組 (DEPL) : 直接の依存関係がある 2 つの Lemma と両者間の依存関係のラベル。[例] case(犬, は) (7) 依存関係のラベルと 2 つの POS の3つ組 (DEPP) :特徴 (6) での Lemma をその POS で置き換えたもの. [例] nsubj(動詞-一般, 代名詞) (8) 文字種 (CType) : 漢字,ひらがな,カタカナそれぞれの頻度. アルフアベットやアラビア数字, 記号などはカウントしない. 特徴 (1) から特徴 (7) までは NLI 研究ですでに広く使用されている特徴である [17]. 本稿では, 特徴 (1) から特徴 (4) までの $\mathrm{N}$ として 2 から 6 までの 5 通りを考慮する。それらに加えて本稿では,日本語文書において特有な, NLI の特徴として (8) の文字種を新たに提案する. 文字種を特徴として用いる理論的根拠は, 漢字圏の日本語学習者は漢語を多く使用する傾向にあることがSLA 研究においてしばしば指摘されていることによる [18]. 今回は集計のしやすさから,漢語,和語, 外来語の代わりとして, 漢字, ひらがな, カタカナの頻度をそれぞれ集計した.以上の特徵らの出現頻度ベクトルを $l 2$ ノルムで正規化したものを, 各文書の特徴ベクトルとした。 ## 3.3 分類器 これまでの NLI 研究では分類器として SVM がょく選択される傾向にある [6]. しかし,SVM よりもロジスティック回帰 (LR) の方が正解率が高いという報告 [19] や,NLI と類似のタスクである著者推定や著者プロファイリングの研究のうち日本語文書を対象にしたものでは,SVM よりもランダムフォレスト (RF) の方が有効であるといった報告 $[20,21]$ もある。そのため本稿では, 解釈のしやすさも考慮して, 線形 SVM, LR, RF 計 3 種類の分類器の性能を比較することにした.SVMとLRは $10 \times 10$ の入れ子式交差検証を行い,内部の交差検証ではグリッドサーチによりハイパーパラメータ $C$ を決定した。また $\mathrm{RF}$ は,決定木の本数を 1000 本に固定して, 10 交差検証を行った. そして, 10 交差検証で得られる 10 個の正解率の平均値を最終的な正解率とした。 ## 4 実験 ## 4.1 各特徵および 3 種類の分類器の比較 本項では, 3.2 項で挙げた特徴にそれぞれ着目して特徴ベクトルを作成し,線形 SVM,LR,RFをそれぞ 表 1 れ用いて分類した場合の分類正解率を調査する.表 1 にその結果を記し, 各特徴ごとに 1 番正解率が良かった部分を太文字で表示している。 表 1 より, 各特徴の有効性については, CHAR 1-Ngram が最も有効で, Lemma 1-Ngram, DEPL, POS 1-Ngram, DEPP, FW 1-Ngram, DEP, CType の特徴が順に続いていることが分かる. 今回新しく提案した文字種は, 単独ではほとんど識別能力が無かった. また, 分類器間で分類正解率を比較してみると, 線形 SVM の分類正解率が最も高く, 次いで LR, 最後に RF というおおむねの傾向を読み取ることができる. そこで, 次項以降の実験では, 1 番正解率の高かった線形SVM のみを分類器として用いることにする. ## 4.2 特徵を組み合わせたときの分類正解率 本項では, 3.2 項の特徴を組み合わせて特徴べクトルを作成したときに, 分類正解率がどう変化するのか表 2 特徴を組み合わせたときの分類正解率 (\%) 表 3 文字種がある場合と無い場合での正解率 (\%) の比較 を検証する.本項の実験では, 4.1 項の実験結果を鑑みて, Lemma 1-5gram, CHAR 1-4gram, FW 1-5gram, POS 1-5gram, DEP, DEPL, DEPP, CType の計 8 種類の特徴を組み合わせることを考える。すべての特徴を使わない場合を除いて,これら 8 種類の特徴をそれぞれ使うか使わないかのすべての場合 $\left(2^{8}-1=255\right.$通り)で特徴ベクトルを作成し, 分類正解率を測定した. 表 2 がその結果であるが,紙幅の関係上, 4.1 項の実験で正解率が最も高かった CHAR 1-4gram をべー スラインとして, CHAR 1-4gram を特徴として用いたときの正解率 $71.5 \%$ よりも高かった 7 つの組み合わせのみを掲載している。 表 2 から, 最高で $72.0 \%$ の正解率を達成できたことが分かる。また, CHAR 1-4gram と CType がベースラインよりも正解率が高かった 7 つの組み合わせすべてに出現しており, 次いで DEPL と DEPPが 5 回, Lemma 1-5gram と DEP が 3 回出現し, FW 1-5gram と POS 1-4gram は 1 回も組み合わせの中に出現しなかったことも分かる.注目すべきなのは,単独ではほとんど識別能力が無かった文字種 (CType) が表 2 ではすべての組み合わせに出現しており,したがって文字種は他の特徴と組み合わせたときに分類正解率を高める力があると示唆される点である. 実際に,文字種以外の特徴を表 2 の通りに固定して文字種がある場合と無い場合とで正解率を比較したところ, 表 3 に示すように, 最大で $1.3 \%$ 正解率が上昇していることが分かる.文字種特徴を他の特徴と組み合わせたときに正解率 $ \begin{aligned} & \text { 中英仏独洪尼韓露西泰 } \quad \text { 土越 } \\ & \text { 漢字 ■ひらがな ■カタカナ } \end{aligned} $ 図 1 各母語話者ごとの各文字種の相対頻度 が上昇した現象に対して, 特徴の多様性の観点からの説明が 1 つ考えられよう. Malmasi と Cahill は [22] で, 異なる性質の特徴を組み合わせることで正解率が上昇することを指摘している. 今回用いた特徴の性質を考えてみると, 文字種以外の特徴は言語要素らの高々 1 文内でのミクロな関係を捉える特徴であるのに対して, 文字種特徴は文書全体にわたるマクロな情報を捉える特徴であり, 両者は相補的な関係を成していると言える。また, 図 1 は今回用いた全 600 文書における各母語話者ごとの各文字種の相対頻度を示したものであるが,各文字種の相対頻度は各母語話者ごとに若干偏りがあることが分かる. そのため, 文字種の情報だけでは母語を識別するための十分な情報とは言えないため単独ではほとんど識別能力が無かったが,文字種特徴で捉えたマクロな情報が文字 1-4gram などの特徴で捉えたミクロな情報を補い,結果として正解率が上昇したと推察される。 ## 4.3 中国語母語話者の過剰使用表現 Malmasi と Dras は [2] で, 線形 SVM の重みべクトルに着目することで各母語話者の過剩使用ないし過少使用の現象を捉えられ,そこから既存のSLA 研究で得られた知見に新たな証拠を与えたり,新たな仮説を提唱したりできるとしている。紙幅の関係上, 本稿では中国語母語話者の過剩使用のみに焦点を絞ってその様子を捉えることにする。 表 4 は,Lemma 1-5gram を特徴としたとき, 10 交差検証で生じた 10 個の SVM から中国語母語話者に対応する 10 本の重みベクトルを取りその平均ベクトルを計算し, 平均ベクトルの要素值が大きい上位 12 個の部分に対応する具体的な特徴を記したものである.まず表 4 のうちのおよそ半分が, 3 人称代名詞「彼」の過剩使用に関連するものである。石川は [23] で日本語母語話者と比較したときの中国語母語話者による 3 人称代名詞の過剩使用を指摘しているが,他の母語話者と比較したときにも中国語母語話者による 3 人称代名詞の過剩使用が示唆される結果となった。また, 時間表現「とき」「その時、も他の母語話者と比較したときに中国語母語話者が過剩使用している表現として挙げられる. その要因として, 望月ら [24] で挙げられている“当 (dang) + [文] +时 (shi)” (〜とき)の他に, “这时 (zheshi)”“此时 (cishi)” (この時/ その時)2)という中国語における表現も影響しているのではないかと推測される.ただし,「時」という表現自体は中国語を母語とする学習者に限らず,学習者全体で過剩使用される表現であるという見解もあるし $[26,27]$, 加えて韓国語母語話者やタイ語母語話者に対しても表 4 と同様の表を描いたところ,20 位付近に「その時」という特徴が存在していたため, この点については更なる調査が必要であると考えられる。 ## 5 おわりに 本稿では, 日本語学習者コーパス I-JAS を用いて初めて L2 日本語文書に対する NLIを行い,また日本語特有の特徴として新たに文字種を提案した。その結果, 文字種を他の特徴と組み合わせて用いることで分類正解率の向上が確認され, 最高で $72.0 \%$ の正解率で 12 の言語をそれぞれ母語とする人によって書かれた文書を分類することができた。また,SVM の重みべクトルを用いて中国語母語話者の過剩使用表現について分析を行った. 今回は解釈のしやすさを考慮して分類器を選択したが,今後の課題の 1 つとして, アンサンブル学習 [28] などの手法を用いて分類正解率をより高めることが挙げられる. ## 参考文献 [1]Alla Rozovskaya and Dan Roth. Algorithm selection and model adaptation for ESL correction tasks. In Proceedings of the 49th Annual Meeting of the Association for Computa- 2)この表現からの影響について [24] では明示的に議論されてはいないものの, 中国語母語話者による中国語での産出でこの表現が使用されているのが,[24]における例文 (17)b で観察される.また,「とき」「その時」という表現が中国語母語話者に過剰使用される要因については, [25] も参照のこと. tional Linguistics: Human Language Technologies, pp. 924933, 2011. [2]Shervin Malmasi and Mark Dras. Language transfer hypotheses with linear SVM weights. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1385-1390, 2014. [3]財津亘. 犯罪捜査のためのテキストマイニングー文章の指紋を探り,サイバー犯罪に挑む計量的文体分析の手法一. 共立出版, 2019. 金明哲(監修) [4]文化庁国語課. 令和元年度国内の日本語教育の概要, 2019. https://www.bunka.go.jp/tokei_hakusho_ shuppan/tokeichosa/nihongokyoiku_jittai/r01/pdf/ 92394101_01.pdf(2020 年 12 月 25 日閲覧). [5]Moshe Koppel, Jonathan Schler, and Kfir Zigdon. Determining an author's native language by mining a text for errors. In Proceedings of the Eleventh ACM SIGKDD International Conference on Knowledge Discovery in Data Mining, pp. 624-628, 2005. [6]Joel Tetreault, Daniel Blanchard, and Aoife Cahill. A report on the first native language identification shared task. In Proceedings of the Eighth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 48-57, 2013. [7]Felix Golcher and Marc Reznicek. Stylometry and the interplay of topic and L1 in the different annotation layers in the FALKO corpus. In Proceedings of Quantitative Investigations in Theoretical Linguistics 4, pp. 29-34, 2011. [8]Shervin Malmasi and Mark Dras. Chinese native language identification. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 95-99, 2014. [9]Shervin Malmasi and Mark Dras. Arabic native language identification. In Proceedings of the EMNLP 2014 Workshop on Arabic Natural Language Processing, pp. 180-186, 2014. [10]Shervin Malmasi and Mark Dras. Finnish native language identification. In Proceedings of the Australasian Language Technology Association Workshop 2014, pp. 139-144, 2014. [11]Shervin Malmasi, Mark Dras, and Irina Temnikova. Norwegian native language identification. In Proceedings of the International Conference Recent Advances in Natural Language Processing, pp. 404-412, 2015. [12]Iria del Río Gayo, Marcos Zampieri, and Shervin Malmasi. A Portuguese native language identification dataset. In Proceedings of the Thirteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 291-296, 2018. [13]Nikita Remnev. Native language identification for Russian. In 2019 International Conference on Data Mining Workshops, pp. 1138-1144, 2019. [14]吉見毅彦, 小谷克則, 九津見毅, 佐田いち子. 単語対応付けに基づく日本語学習者による作文の自動識別. 情報処理学会論文誌, Vol. 49, No. 12, pp. 4039-4043, 2008. [15]迫田久美子, 石川慎一郎, 李在鎬(編).日本語学習者コーパス I-JAS 入門一研究・教育にどう使うか一. くろしお出版, 2020. [16]松田寛. GiNZA - Universal Dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [17]Shervin Malmasi. Native language identification: explorations and applications. PhD thesis, Macquarie University, 2016. [18]迫田久美子. 改訂版日本語教育に生かす第二言語習得研究. アルク, 2020. [19]Sze-Meng Jojo Wong and Mark Dras. Exploiting parse structures for native language identification. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1600-1610, 2011. [20]金明哲, 村上征勝. ランダムフォレスト法による文章の書き手の同定. 統計数理, Vol. 55, No. 2, pp. 255-268, 2007. [21]財津亘, 金明哲. ランダムフォレストによる著者の性別推定一犯罪者プロファイリング実現に向けた検討一. 情報知識学会誌, Vol. 27, No. 3, pp. 261-274, 2017. [22]Shervin Malmasi and Aoife Cahill. Measuring feature diversity in native language identification. In Proceedings of the Tenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 49-55, 2015. [23]石川慎一郎. 多様な外国語学習者の言語使用特性一中国人英語/日本語学習者の過剩・過小使用語彙一. 第 2 回学習者コーパスワークショップ予稿集, pp. 57-68, 2017. [24]望月圭子, 申亜敏, 小柳昇. 日本語 - 英語 - 中国語双方向学習者コーパスにみられるテンス・アスペクトの習得.日本語・日本学研究, No. 10, pp. 137-152, 2020. [25]王芯芯. 日本語上級レベル学習者の接続表現の使用状況に関する調査一中国語母語話者のストーリーテリングテストを中心に一. ポリグロシア, Vol. 17, pp. 117-128, 2009. [26] 小西円. 日本語学習者と母語話者の産出語彙の相違一 I-JAS の異なるタスクを用いた比較一. 国立国語研究所論集, Vol. 13, pp. 79-106, 2017. [27]小口悠紀子. 談話における出来事の生起と意外性をいかに表すか一中級学習者と日本語母語話者の語りの比較.日本語/日本語教育研究, Vol. 8, pp. 215-230, 2017. [28]Shervin Malmasi and Mark Dras. Native language identification with classifier stacking and ensembles. Computational Linguistics, Vol. 44, No. 3, pp. 403-446, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-2.pdf
# Recurrent neural network grammar の並列化 能地宏 産業技術総合研究所 人工知能研究センター hiroshi.noji@aist.go.jp ## 1 はじめに 自然言語処理のモデルは言語の統語構造を明示的に扱うべきだろうか。その必要はないだろうか。近年の大規模コーパス上での事前学習モデルの成功を見ると (Devlin et al., 2019)、特定タスクで高い精度を得るためには明示的な統語構造は不要に思える。一方、これらのモデルの脆弱性 (McCoy et al., 2019; Yanaka et al., 2020) や人間の汎化能力との解離 (Linzen, 2020) も指摘されており、人の持つ頑健な言語能力を計算機上で実現するためには、シンボリックな統語構造の操作など強力な帰納バイアスがやはり必要であるという可能性も捨てきれない。 現在 Transformer (Vaswani et al., 2017) を始めとする単純で弱い帰納バイアスのモデルがもてはやされている大きな理由は、それらの GPU 上での並列計算との親和性による高いスケーラビリティである。明示的に構造を扱う深層学習モデルも提案されているものの、計算グラフが文毎に変化するという特性から並列化が難しく、大規模なデータ上で効率的な学習が行えないことが実用上の大きな妨げとなっている。例えば Kuncoro et al. (2020) は、 Recurrent neural network grammar (RNNG; Dyer et al. (2016)) に対して BERT の訓練データの約 $3 \%$ (340万文)を使った訓練に 3 週間を要したと報告している。 本研究では、構造を扱うモデルとしてこの RNNG に着目し、このモデルのミニバッチ化がモデル構造を注意深く観察し、データ構造を工夫することで実現可能となることを示す。RNNG はこれまで DyNet (Neubig et al., 2017) による実装しか存在しなかった。 DyNet は計算グラフからミニバッチ単位を自動で見つける Autobatch と呼ばれる機能を備えるが、この機能自体のオーバーヘッドが大きいために、大きいバッチサイズによる並列化の恩恵が得られにくいという問題があった。我々は提案アルゴリズムを新しく PyTorch で実装したところ、C++ DyNet の実装と \author{ 大関洋平 \\ 東京大学 \\ 大学院総合文化研究科 \\ oseki@g.ecc.u-tokyo.ac.jp } 比較して大幅な速度向上を達成した。本研究で提案するアイデアは他のモデルにも適用可能なものであり、様々な構造を考慮に入れたモデルを設計する際の新しい方法論となり得る。 ## 2 Recurrent neural network grammar RNNG (Dyer et al., 2016) は文及び対応する句構造を同時に生成する生成モデルであり、言語モデルとして LSTM 言語モデルなど他のモデルよりも統語能力、例えば英語での離れた主語と動詞の数を一致させる能力 (Linzen et al., 2016) などに優れることが示されている他 (Hu et al., 2020)、人の文処理のモデルとしての妥当性も主張されている (Hale et al., 2018)。本研究では元論文のモデルではなく、Kuncoro et al. (2017) で提案された Stack-only RNNG を取り扱う。 このモデルは各時点で LSTM の先頭の状態が次の動作の確率を定めるという点で、LSTM 言語モデルとの類似性が認められる。 RNNG は各時点で (S (NP A dog ) (VP barks ))のような句構造を左から右に生成するモデルと理解される。 ${ }^{1)}$ こ際、データ構造として各要素がべクトルであるスタックを用い、その上での LSTM (スタック LSTM; Dyer et al. (2015)) によって状態を更新していく点に特徴がある。次の三つの動作からなる。 ・OPEN(X): スタック上に非終端記号 X に対応するべクトル $\mathbf{e}_{X}$ を置く。新しく開いた $(\mathrm{X}$ の生成を意味する。 ・ $\mathrm{GEN}(\mathrm{w})$ : スタック上に単語ベクトル $\mathbf{e}_{w}$ を置く。単語 $\mathrm{w}$ の生成を意味する。 ・REDUCE: スタックが左から $\left[\cdots \mathbf{e}_{X} \mathbf{e}_{w_{1}} \cdots \mathbf{e}_{w_{n}}\right]$ であるとき、 $\mathbf{e}_{X} \mathbf{e}_{w_{1}} \cdots \mathbf{e}_{w_{n}}$ を取り除き、句 Xに対応する新しいべクトル $\mathbf{e}_{X^{\prime}}$ で置き換える。 $ \mathbf{e}_{X^{\prime}}=\operatorname{Composition}\left(\mathbf{e}_{X}, \mathbf{e}_{w_{1}}, \cdots, \mathbf{e}_{w_{n}}\right) $ 1)生成過程に品詞を含めると (NP (DT A ) (NN dog )) などとなるが、元論文のモデルに従い、本研究では品詞の生成はモデル化せず、単語を直接生成するモデルを扱う。 この関数がトップダウンの木構造生成過程において句構造の階層性を捉えるための中心的役割を果たす。本研究では元論文に従い、 $\mathbf{e}_{X}, \mathbf{e}_{w_{1}}, \cdots, \mathbf{e}_{w_{n}}$ を大力とする双方向 LSTM の両端の出力を結合することで $\mathbf{e}_{X^{\prime}}$ を得る。本動作が REDUCE であるのは、OPEN(X) で開いた句を閉じる操作に対応するためである。例えば上の簡単な文で GEN $(\operatorname{dog})$ の後のスタックは $\left[\mathbf{e}_{\mathrm{S}} \mathbf{e}_{\mathrm{NP}} \mathbf{e}_{\mathrm{A}} \mathbf{e}_{\mathrm{dog}}\right]$ となり、ここから REDUCE により (NP A dog) に相当する句べクトル $\mathbf{e}_{\mathrm{NP}}$ を計算した後、スタックは $\left[\mathbf{e}_{\mathrm{S}} \mathbf{e}_{\mathrm{NP}^{\prime}}\right]$ となる。 これらスタック要素 $\mathbf{e}_{X}, \mathbf{e}_{w}$ をもとに、各時点で次の動作 $a_{i}$ に対する確率が、単方向 LSTM によって計算される。スタック要素が $\mathbf{e}_{1}, \cdots, \mathbf{e}_{t}$ であるとき、 $\mathbf{u}_{i}=\operatorname{MLP}\left(\operatorname{LSTM}\left(\mathbf{e}_{1}, \cdots, \mathbf{e}_{t}\right)\right)$ として、 $ p\left(a_{i} \mid a_{1}, \cdots, a_{i-1}\right) \propto \exp \left(\mathbf{W} \cdot \mathbf{u}_{i}\right) $ が次の動作の分布となる。LSTM は逐次先頭から実行する必要はなく、各ステップの隠れ層をスタックの形で保持しておけば、REDUCE 時には適宜 pop 乙つつ 1 ステップの実行を行うのみで良い。本機構がスタック LSTM と呼ばれる所以である。学習は、正解の木構造が与えられたときにそれを復元する動作確率を最大化する教師あり学習により行われる。 並列化の難しさ単純な LSTM の学習が本モデルより効率的なのは、複数文をまとめたミニバッチの中で $i$ 番目の単語をまとめて処理できるためである。 Transformer は更に再帰性を取り除くことで、全単語を同時に処理することを可能としている。RNNG は一方、各時点 $i$ で選択される動作が文 (木構造) 毎に異なるため、単語単位の並列化を行うことが困難となる。DyNet (Neubig et al., 2017)の Autobatch はこれを軽減するための仕組みだが、仕組み自体のオー バーヘッドが無視できず、特に大きいバッチサイズでは効果が限定的となる (第 5 節)。 ## 3 並列化 本研究では複数文からなるミニバッチに対して、 バッチ内の全文の $i$ 番目の動作を並列に行うアルゴリズムを提案する。鍵となるのは、上で導入した OPEN、GEN、REDUCE の内部動作が、次の二つの基本動作の組み合わせで表現可能という点である。 ・ $\operatorname{PUSH}\left(\mathbf{e}_{x}\right): \mathbf{e}_{x}$ をスタック先頭に追加する。 ・ $\operatorname{CLOSE}()$ : スタック上で開いている句 (Xを閉じた後 Composition() で得られる $\mathbf{e}_{X^{\prime}}$ を返す。 これらを用いると、元の RNNG の動作は - $\operatorname{OPEN}(\mathrm{X}) \Rightarrow \operatorname{PUSH}\left(\mathbf{e}_{X}\right)$ - $\mathrm{GEN}(\mathrm{w}) \Rightarrow \mathrm{PUSH}\left(\mathrm{e}_{w}\right)$ - REDUCE $\Rightarrow$ PUSH(CLOSE()) と表現できる。いずれも $\operatorname{PUSH}\left(\mathbf{e}_{x}\right)$ を含んでいる点に注目されたい。これらをバッチ内の文に渡って並列化するには、まず各文について PUSH すべき要素 $\mathbf{e}_{x}$ を得た後、まとめてスタックに追加すれば良い。 スタックのテンソル化これを実現するには、スタックを表すデータ構造を工夫する必要がある。我々は $B$ をバッチサイズとして $\mathbf{E}_{i}=\left[\mathbf{e}^{1} \cdots \mathbf{e}^{B}\right]$ の要素をまとめてスタックに追加したい。これを一つのテンソル計算で実現するためには、挿入先のスタック自体がテンソルである必要がある。式で表すと、 $ \mathbf{j}=\mathbf{j}+1 ; \quad \mathbf{S}[(1, \mathbf{j}[1]), \cdots,(B, \mathbf{j}[B])]=\mathbf{E}_{i} $ と書ける。ここで $\mathbf{j}$ は $B$ 次元のベクトルであり、各文に対するスタックの深さのポインタを保持する。 $\mathbf{S}$ がスタックを保持するテンソルであり、 $D$ をあらかじめ定まる最大のスタックの深さとして $\left(B, D,\left|\mathbf{e}_{x}\right|\right)$ の次元を持つ。このようにスタックを固定長のテンソルで表現することで PUSH 操作のバッチ内に渡る並列化が可能となる。2) CLOSE のためのデータ構造上記操作で PUSH を実現する場合、 $\mathbf{E}_{i}$ を具体的にどう得るかが問題となる。次の動作を表すべクトル $\mathbf{a}_{i}=\left[a_{i}^{1} \cdots a_{i}^{B}\right]$ が与えられたとき、OPEN、GENに関しては、 $\mathbf{a}_{i}$ からそれぞれの動作のみ選択するためのマスク行列を得て、単語及び非終端記号の埋め込み行列から値を取り出せば良い。REDUCE に伴う CLOSE 処理は若干複雑である。CLOSEを for や if を伴わず効率的に実現するには、更にいくつかのデータ構造を用意し、それらを操作する必要がある。 -nt_positions: nt_positions $[\mathrm{b}, \mathrm{d}]=\mathrm{k}$ で文 $b$ のスタック中で $d$ 番目の非終端記号が深さ $k$ にあることを表す、 $(B, D)$ 次元の行列。 -nt_ids: nt_positions $[\mathrm{b}, \mathrm{d}]=\mathrm{x}$ で文 $b$ のスタック中で $d$ 番目の非終端記号が $x$ であることを表す、 $(B, D)$ 次元の行列。 2) $D$ はバッチ毎にあらかじめ定めておく必要があるが、これを大きくすると GPUメモリを多量に消費するという問題も生じる。訓練時であれば、各文に対して正解の動作列をあらかじめシミュレートすることで最小値を得ておき、バッチ内の文で最大の值を用いれば良い。推論の際は深さが理論上無限に増えるが、英語の標準的な文であれば、150 単語を超える長い文であっても、深さ 70 程度で抑えられることが分かった。 そのため、推論時には $D=100$ に設定した。 (a) 訓練時の文処理速度の比較 (b) PTB 開発セットでの構文解析精度 (c) PTB 開発セットでの perplexity 図 1: Penn Treebank (PTB) での実験結果。いずれのポイントも seed の異なる 3 モデルの平均である。 ・num_nts: 文 $b$ のスタック中の非終端記号の数を保持する $B$ 次元ベクトル。 例えばnt_positions[(1,num_nts[1]), , (B,num_n $\mathrm{ts}[\mathrm{B}])]$ でバッチに渡り先頭の非終端記号のスタック深さを得ることができ、 $\mathbf{a}_{i}$ からのマスク行列と組み合わせることで CLOSE の対象となるスタック要素をテンソル計算で取り出すことが可能となる。 既存研究との関連スタック KSTMを固定長テンソルによって並列化する研究は本研究が初ではなく、Ding and Koehn (2019) がより単純なラベルなし依存構造解析に対してアイデアを提示している。ただし彼らのアルゴリズムは COMPOSITION が扱えず、更に二分木の場合にしか適用できない。本研究の貢献は、より複雑なスタック上の操作を要する RNNG に対しても、効率的なバッチ処理が実現可能であることを示した点にある。 ## 4 その他の改善 Beam search の並列化 RNNG を言語モデル、もしくは逐次的な構文解析器として用いる場合、各単語毎にビーム内の足切りを行う word-synchronous beam search (Stern et al., 2017) の有効性が示されている。ただし既存の DyNet の実装は非常に遅く、小規模な実験のためであってもかなりの計算リソースを要する。我々はこの beam search も、ビーム幅の次元をスタックのテンソルに組み込むことで並列化することに成功し、大幅な速度の向上を実現した。 サブワード未知語を含まない言語モデルとしてサブワード単位の言語モデルが標準的となっている。本研究はRNNG の予測をサブワード単位に拡張した。具体的には、予測する木構造の終端記号を分割し、(S (NP The do\#\# g ) (VP bar\#\# ks )) のような木構造をモデル化する。なお Kuncoro et al. (2020) ではより複雑なサブワードへの対応法が議論されているが、我々の実装ではこの単純な方法でも高い性能 が維持できることが分かった。 ## 5 DyNet 実装との比較 まず、Penn Treebank (PTB) を用いて C++ DyNet の実装との訓練時の処理時間の比較を行う。モデルサイズ、ハイパーパラメータ及びデータ前処理は Dyer et al. (2016) に従い、モデルの全ての次元を 256 に設定した。3)訓練データのうち 1 回しか出現しない単語は未知語に置き換え、語彙サイズは 23,794 となった。バッチサイズを $2^{0}, \cdots, 2^{9}=512$ まで変化させた。実験環境は 16GB の Nvidia V100 GPU $\times 1$ である。各設定 3 回の試行を行い、平均値を報告する。 訓練を 1 エポック行った際の一秒あたりの処理文数の比較を図 1a に示す。DyNet 実装はメモリ不足のためバッチサイズ 128 までしか実行できなかったが、 32 程度で速度の上限に達してしまった。一方我々の PyTorch 実装は GPU メモリの許すバッチサイズ 512 まで処理速度の向上を達成し、両者の最大の速度を比較すると約 6 倍と大幅な改善を達成した。 更に重要な点として、大きいバッチサイズのモデルは実時間でより早く収束し、また推論時により高い性能を示すことが分かった。図 $1 \mathrm{~b}, 1 \mathrm{c}$ に、これらモデルでビーム幅を変えてビームサーチを行った際の EVALBでのF1 スコア (構文解析精度)と perplexity の値をまとめた。4) F1 スコアの差は小さいが、 perplexity はバッチサイズ 512 の場合が一貫して最も低い。これより、以下の大規模実験ではバッチサイズは 512 に固定した。 3)DyNet 実装では最適化に SGDが使われているが、我々の実装では Adam (Kingma and Ba, 2015) の方が安定して高い性能を示した。学習率は 0.001 に設定した。 4)言語モデルとしての perplexity の計算方法などは Hale et al. (2018)に譲る。これらはアクションビーム幅 (Stern et al., 2017) であり、word-synchronous search の単語ビーム幅はその 1/10、 fast track の大きさを $1 / 00$ とした。これは Hale et al. (2018) と同じ設定であるが、彼らの数値より一貫して 0.8 ポイント程度高いF1 値を得ており、我々の実装がより高品質なモデルの学習を可能にすることを示している。 ## 6 大規模データでの検証と議論 本研究によって大規模データ上で RNNG の学習を行う道が開けたといえる。過去の研究で RNNG と LSTM は対比されてきたが (Wilcox et al., 2019; Hu et al., 2020) 、RNNG のスケーラビリティが低いために PTB など小規模のデータ上での実験に限定されていた。より大量のデータで同じ条件で訓練した際、RNNG は LSTM に対する優位性を保持するだろうか。大量のデータを与えられた LSTM は統語能力をある程度獲得し、明示的に構造を追跡する利点が相対的に薄れるという可能性も考えられる。 本節ではこの点を検証するために、英語 Wikipedia から新たにサンプルした約一億語 (PTB の約 100 倍) の訓練データで学習したLSTM とRNNGを、言語モデルとしての統語能力の観点で評価する。様々な評価方法が提案されているが、本研究では、その中で現時点で最も広い言語現象をカバーする SyntaxGym (Gauthier et al., 2020)を用いる。5) これは様々な文法項目について、言語モデルがそれらを把握する能力がどれほどあるかを調べるためのテストセットである。例えば Agreement のテストでは “The farmer near the clerks knows/*know many people.” のように動詞の数が違う二文が与えられ、下線部の単語に対してモデルが付与する尤度を比較したとき、適格な単語 (knows) に高い尤度を付与していれば正解となる。 本実験はサブワードを用いる。Sentencepiece (Kudo and Richardson, 2018) 実装の byte-pair encoding (Sennrich et al., 2016) を利用し、語彙サイズ 30,720 とした。LSTM 言語モデルは Noji and Takamura (2020) でチューニングした文単位のモデルを用いる。 LSTM、RNNG 共に、パラメータ数がこの語彙数で約 35M となるように調整した。6) RNNG の学習デー タはアノテートされた句構造からなる。Wikipedia 文書に対するなるべく高精度の句構造を得る目的で、BERT に基づく Berkeley neural parser (Kitaev and Klein, 2018)を利用し、正解の構造とみなした。 全体の結果を図 2 にまとめた。特にLSTM 言語モデルで性能が $70 \%$ 程度までに留まる項目 (Agreement、Center Embedding、Licensing) で 10 ポイント以上の性能向上を果たしていることから、一億語ほどの学習データを用いても、RNNG で明示的に  図 2: SyntaxGym での各項目 (circuit) 毎の評価結果。エラーバーは seed の異なる 3 モデルでの標準偏差を表す。 構造を捉える利点は確実に存在することが分かる。 一方、Long-Distance Dependencies では精度が低下している。この項目は分裂文 (cleft) 及びフィラー・ ギャップ構造の扱いをテストするものである。中身を分析したところ、特に単純な擬似分裂文に対して、LSTM は精度がほぼ 100\%であるのに RNNG は 60\%程度しか解けていないことが判明した。例えば次の二文で、下線部の尤度が (1a) > (1b) であることを判定する問題である。 (1) a. What he did was prepare the meal. b. * What he ate was prepare the meal. RNNG は構造を追跡するが故に、この現象を扱う能力が低下した可能性が考えられる。(1b) が不適であるのは、was に続く句が動詞句であることが許されるのは主節に現れる動詞が do の場合のみだからである。一方、PTBアノテーションでは両者の主節は (SBAR (WHNP What) (S (NP he) (VP did/ate))) と同じ構造で、実際モデルはこの構造を正しく認識している。これは RNNG は構造を追跡するが故に、その構造により依拠した予測をしがちであり、そのために LSTM が表層的に獲得できるヒューリスティクスの獲得に失敗する可能性があることを示唆している。 図 2 よりRNNG が LSTM より統語処理能力全般に優れるのは明らかであり、このような現在苦手である現象に対処するためのモデル面での改善は今後の課題である。本研究で提案したバッチ化により、 RNNG は研究のためだけの道具ではなくLSTM と比較できるモデル候補となった。今後のモデルの更なる精緻化や付与すべきアノテーションの検討をはじめ、様々な研究に繋がる礎を築いたといえる。 ## 謝辞 本研究は JSPS 科研費 JP20K19877 及び JP19H04990 の助成を受けたものです。 ## 参考文献 J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova (2019) "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," in Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota: Association for Computational Linguistics, June, DOI: 10.18653/v1/N19-1423. S. Ding and P. Koehn (2019) "Parallelizable Stack Long Short-Term Memory," in Proceedings of the Third Workshop on Structured Prediction for NLP, pp. 1-6, Minneapolis, Minnesota: Association for Computational Linguistics, June, DOI: 10.18653/v1/W19-1501. C. Dyer, M. Ballesteros, W. Ling, A. Matthews, and N. A. Smith (2015) "Transition-Based Dependency Parsing with Stack Long Short-Term Memory," in Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 334-343, Beijing, China: Association for Computational Linguistics, July, DOI: 10.3115/v1/P15-1033. C. Dyer, A. Kuncoro, M. Ballesteros, and N. A. Smith (2016) "Recurrent Neural Network Grammars," in Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California: Association for Computational Linguistics, June, DOI: 10.18653/v1/N16-1024. J. Gauthier, J. Hu, E. Wilcox, P. Qian, and R. Levy (2020) "SyntaxGym: An Online Platform for Targeted Evaluation of Language Models," in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 7076, Online: Association for Computational Linguistics, July, DOI: 10.18653/v1/2020.acl-demos. 10 . J. Hale, C. Dyer, A. Kuncoro, and J. Brennan (2018) "Finding syntax in human encephalography with beam search," in Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2727-2736, Melbourne, Australia: Association for Computational Linguistics, July, DOI: 10.18653/v1/P181254. J. Hu, J. Gauthier, P. Qian, E. Wilcox, and R. Levy (2020) "A Systematic Assessment of Syntactic Generalization in Neural Language Models," in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1725-1744, Online: Association for Computational Linguistics, July, DOI: 10.18653/v1/2020 acl-main. 158. D. P. Kingma and J. Ba (2015) "Adam: A Method for Stochastic Optimization," in Y. Bengio and Y. LeCun eds. 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, URL: http://arxiv.org/abs/1412.6980. N. Kitaev and D. Klein (2018) "Constituency Parsing with a Self-Attentive Encoder," in Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia: Association for Computational Linguistics, July, URL: http://www. aclweb .org/anthology/ P18-1249. T. Kudo and J. Richardson (2018) "SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing," in Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium: Association for Computational Linguistics, November, DOI: 10.18653/v1/D18-2012 A. Kuncoro, M. Ballesteros, L. Kong, C. Dyer, G. Neubig, and N. A. Smith (2017) "What Do Recurrent Neural Network Grammars Learn About Syntax?" in Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1249-1258, Valencia, Spain: Association for Computational Linguistics, April, URL: https://www. aclweb.org/ anthology/E17-1117. A. Kuncoro, L. Kong, D. Fried, D. Yogatama, L. Rimell, C. Dyer, and P. Blunsom (2020) "Syntactic Structure Distillation Pretraining for Bidirectional Encoders," Transactions of the Association for Computational Linguistics, Vol. 8, pp. 776-794, DOI: 10.1162/tacl_a_00345. T. Linzen (2020) "How Can We Accelerate Progress Towards Humanlike Linguistic Generalization?" in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 52105217, Online: Association for Computational Linguistics, July, DOI: 10.18653/v1/2020.acl-main. 465. T. Linzen, E. Dupoux, and Y. Goldberg (2016) "Assessing the Ability of LSTMs to Learn Syntax-Sensitive Dependencies," Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, DOI: 10.1162/tacl_a_00115. T. McCoy, E. Pavlick, and T. Linzen (2019) "Right for the Wrong Reasons: Diagnosing Syntactic Heuristics in Natural Language Inference," in Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3428-3448, Florence, Italy: Association for Computational Linguistics, July, DOI: 10.18653/v1/P19-1334. G. Neubig, Y. Goldberg, and C. Dyer (2017) "On-the-fly Operation Batching in Dynamic Computation Graphs," in I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett eds. Advances in Neural Information Processing Systems, Vol. 30, pp. 3971-3981: Curran Associates, Inc. URL: https://proceedings. neurips.cc/paper/2017/file/ c902b497eb972281fb5b4e206db38ee6-Paper. pdf. H. Noji and H. Takamura (2020) "An Analysis of the Utility of Explicit Negative Examples to Improve the Syntactic Abilities of Neural Language Models," in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 33753385, Online: Association for Computational Linguistics, July, DOI: 10.18653/v1/2020.acl-main. 309 . R. Sennrich, B. Haddow, and A. Birch (2016) "Neural Machine Translation of Rare Words with Subword Units," in Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany: Association for Computational Linguistics, August, DOI: 10.18653/v1/P16-1162. M. Stern, D. Fried, and D. Klein (2017) "Effective Inference for Generative Neural Parsing," in Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark: Association for Computational Linguistics, September, DOI: 10.18653/v1/D17-1178. A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. u. Kaiser, and I. Polosukhin (2017) "Attention is All you Need," in I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett eds. Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008: Curran Associates, Inc. URL: https://proceedings . neurips.cc/paper/2017/file/ 3f5ee243547dee91fbd053c1c4a845aa-Paper. pdf. E. Wilcox, P. Qian, R. Futrell, M. Ballesteros, and R. Levy (2019) "Structural Supervision Improves Learning of Non-Local Grammatical Dependencies," in Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3302-3312, Minneapolis, Minnesota: Association for Computational Linguistics, June, DOI: 10.18653/v1/N19-1334. H. Yanaka, K. Mineshima, D. Bekki, and K. Inui (2020) "Do Neural Models Learn Systematicity of Monotonicity Inference in Natural Language?" in Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6105-6117, Online: Association for Computational Linguistics, July, DOI: 10.18653/v1/2020.aclmain.543.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-3.pdf
# Bi-LSTM CRF モデルを用いた平仮名文の形態素解析 井筒順 茨城大学工学部情報工学科 17t4013g@.vc.ibaraki.ac.jp } 古宮 嘉那子 茨城大学 理工学研究科 kanako.komiya.nlp@.vc.ibaraki.ac.jp ## 1 はじめに 自然言語処理の中で,形態素解析は根幹技術となっている。現代においては $\mathrm{MeCab}^{1)}$ や Chasen ${ }^{2}$等の形態素解析システムが存在し, 形態素解析の中核を担っている。しかし,上記システムは漢字仮名交じり文を対象にしているため,平仮名で構成された文章を形態素解析することは難しい。 本稿では Bi-LSTM CRF モデルを用いて平仮名文の形態素解析モデルを作成した。実験では, 訓練事例のジャンルの影響を見るために, Wikipedia と Yahoo!知恵袋のデータの二種類の訓練事例を利用した。また,両データを利用してファインチューニングを行い,様々なジャンルのテキストにおける影響を調べた。 また,形態素解析は,文章を単語ごとに分割することに加え, 分割した単語に対して品詞等の情報を付与する必要があるが,全て平仮名文であることから,漢字仮名交じり文と比べ単語ごとに分割する際の情報が少なくなり,単語分割の精度が低下してしまうことが予想される。そこで本稿では,漢字仮名交じり文によるモデルを用いたファインチューニングを行った。 本論文の貢献は以下の 4 つである。 ・Bi-LSTM CRF モデルを用いて平仮名文の単語分割モデルを生成したこと ・様々なジャンルのテキストを対象に,形態素解析の訓練事例の影響を検証したこと ・Wikipedia と Yahoo!知恵袋のデータを利用したファインチューニングの有効性を示したこと ・漢字仮名交じり文によるモデルを用いたファインチューニングの有効性を示したこと 本論文ではこれらの実験の結果を報告する。 ## 2 関連研究 工藤ら [1] は,平仮名交じり文が生成される過程を生成モデルでモデル化した。そして,そのパラメータを大規模 Webコーパス及び EM アルゴリズムで推定することにより, 平仮名交じり文の解析精度を向上させる手法を提案している。 大崎ら [2] は, 文章中の特徵的な表現を新たな名称として扱うことによって,コーパスの構築を行っている。また, 藤田ら [3] は既存の辞書やラベルありデータを対象分野の特徵に合わせて自動変換し, それを使用することで形態素解析モデルを構築する教師なし分野適応手法を提案している。林ら [4] は,平仮名語の単語を辞書に追加することにより, 形態素解析の精度が向上することを報告している。 また,井筒ら [5] は MeCab の ipadic 辞書を平仮名に変換し, 平仮名のみで構成されたコーパスをを用いることで平仮名のみの文章での形態素解析を行っている。 Ma ら [6] は Bi-LSTM モデルを使用した中国語の単語分割モデルの作成を行なっている。そして単語分割の精度が,Bi-LSTM モデルよりも複雑なニュー ラルネットワークアーキテクチャに基づくモデルと比較して, 一般的なデータセットでより良い精度を達成することを報告している。 また, Thattinaphanich ら [7] は Bi-LSMT CRF モデルを構築しタイ語において固有表現抽出を行っている。タイ語では,言語リソースが少ないことや,単語・フレーズ・文の境界指標がないなどの言語的な問題が存在するが,単語表現とBi-LSTM を用意し CRF と組み合わせ,テキストのシーケンスを学習しその知識を利用することでこの問題を克服している。 ## 3 提案手法 本稿では,Bi-LSTM CRF モデルを用いて平仮名文の単語分割モデルを生成する。実験では,  2) https://chasen-legacy.osdn.jp Wikipedia モデル,BCCWJ モデル,平仮名 FT モデル,BCCWJFT モデルの 4 つのモデルを学習し,比較する。本研究における各モデルの作成過程を表した図を図 1 として以下に示す。 図 1 モデル生成過程 ## 3.1 Wikipedia モデル Wikipedia モデルは図 1 の学習 C において生成されたモデルである。Wikipedia の漢字仮名交じり文を平仮名に変換したデータを訓練事例として使用する。Wikipediaには平仮名のみのデータがないため,変換には, MeCabの解析結果の読みデータを疑似的な正解として利用した。その際, MeCab の辞書には Unidicを用いた。 ## 3.2 BCCWJ モデル BCCWJ モデルは図 1 の学習 Eにおいて生成されたモデルである。訓練事例としてと Yahoo!知恵袋のデータを使用した。このモデルを使用して Wikipedia のデータと Yahoo!知恵袋のデータの両方を用いて生成されるモデル(図1 の学習D)と精度を比較を比較する。 ## 3.3 平仮名 FT モデル 平仮名 FT モデルは, Wikipedia の漢字仮名交じり文を訓練事例として使用したもの(図 1 の学習 A) に対して, Wikipedia の漢字仮名交じり文を平仮名に変換したデータを訓練事例としてファインチュー ニングを行ったモデル(図19学習B)である。漢字仮名交じり文には,漢字と平仮名の境目や,漢字の情報があるため,形態素解析の手がかり情報が多い。このことから精度向上が期待できる。 ## 3.4 BCCWJFT モデル BCCWJFT モデルは図 1 の学習 D において生成されたモデルである。訓練事例として Wikipedia のデータと Yahoo!知恵袋のデータを両方用いることで,精度向上を目的としている。学習をする際の重みの初期値には平仮名 FT モデルを使用し, Yahoo!知恵袋のデータを使ってファインチューニングを行った。 ## 4 実験 ## 4.1 訓練事例 本実験で使用した,訓練事例である Wikipedia のデータは,次の Web サイト https://dumps.wikimedia.org/jawiki/latest/ において公開されているデータである jawiki-latest-pages-articles.xml.bz2 を展開し使用した。 訓練事例は学習前にデータを整形した。整形した内容を以下に示す。まず,Wikipedia のデータを MeCabを用いて形態素解析した。MeCabによって出力される結果には素性 (単語分割, 品詞, 品詞細分類 1 , 品詞細分類 2 , 品詞細分類 3 , 活用型, 活用形, 基本形, 読み, 発音)が存在している。表層系の部分を読みに置き換えることにより平仮名のデータを得ることができる。次に,平仮名のデータを 1 文字ずつに分割し, それに対して, 品詞をタグとして付与する。ただし, 先頭の文字には B-\{品詞 $\}$ が付与し,以降の文字には $\mathrm{I}-\{$ 品詞 $\} を$ 付与した。 例えば,「きみにあう」(君に会う)という平仮名データであれば,以下の表 1 の様な 1 対 1 に対応した文字データとタグを得ることができる。 上記の様にして 1 行ずつのデータを作成し平仮名データとタグのデータをそれぞれファイルに格納することにより,訓練事例を得た。訓練事例の文字数は 1,183,624 個である。 ただし,漢字仮名交じり文を訓練事例として使用したモデルについては,入力は漢字である必要があるので,表層系の部分を読みに置き換える処理は行わなかった。ゆえに,例えば「君に会う」という単 語は平仮名に置き換えないので表 2 の様な 1 対 1 に対応したデータを得ることになる。 ただし,BCCWJFT モデルを作成する際に用いる訓練事例は後述する訓練事例である BCCWJ の 「Yahoo!知恵袋」のデータセットを使用している。 BCCWJ とデータ作成については 4.2 節を参照されたい。 ## 4.2 テストデータ テストデータとして,国立国語研究所の『現代日本語書き言葉均衡コーパス』3) (以下 BCCWJ と記す) を使用した。 BCCWJでは行形式データが提供されており,本実験では 12 種類のデータセットを使用した。 12 種類のデータセットはそれぞれアルファベット 2 文字で提供されている。各アルファベットがどのコーパスであるかと,それぞれのデータセットにおいて本実験で使用した文字数を示す表を表 3 として以下に示す。 表 3 BCCWJ のコーパス対応と文字数 本実験では表 3 における 12 種類のコーパスそれぞれ整形し, 12 種類の訓練事例を得た。テストデー タは訓練事例の作成と同様にして, 読みの情報と品詞の情報から平仮名のデータとタグのデータを 1 対 1 に対応する様に作成した。 ただし,「Yahoo!知恵袋」のデータはBCCWJFT モ 3) https://pj.ninjal.ac.jp/corpus_center/bccwj/ デルを作成する際の訓練事例としても利用している。 ## 4.3 評価手法 本実験では学習時に,訓練事例の文字データとタグの情報を使用している。学習したモデルは文字データを入力として与えると,モデルが推定する入力に対するタグの情報を出力する。 Wikipedia モデル, 平仮名 FT モデル, BCCWJFT モデル,BCCWJ モデルに対して,テストデータを入力として与え, 出力されるタグの一致率を正答率として評価する。 また,テストデータの各データセットの評価に対してマクロ平均とマイクロ平均を求めた。 ## 5 実験結果 表 4 に Wikipedia モデル, 平仮名 FT モデル, BCCWJFT モデル, BCCWJ モデルの評価結果を示す。表 4 において,Macro はマクロ平均を表し, Micro はマイクロ平均を表している。また, 平仮名 FT モデルと BCCWJFT モデルの精度について,アスタリスクが付与されている値は, Wikipedia モデルの精度に対するカイ二乗検定において有意水準 $5 \%$ で優位であったことを表している。BCCWJ モデルの精度についてアスタリスクが付与されている値は, BCCWJFT モデルの精度に対するカイ二乗検定において有意水準 5\%で優位であったことを表している。 また BCCWJFT モデルと BCCWJ モデルにおいて, Yahoo!知恵袋の精度である OC の精度はクローズドデータを用いて評価を行っており,括弧を付与して表示している。また,この2つのモデルのマクロ平均とマイクロ平均からは OC の評価データは取り除いている。 表 4 から Wikipedia モデルよりも平仮名 FT モデルの方が精度が高いことが分かる。また,BCCWJFT モデルの精度は平仮名 $\mathrm{FT}$ モデルを更にファインチューニングしていることから, Wikipedia モデルよりも精度が向上していることが分かる。 さらに,MeCabを用いてトレーニングデータを評価した。MeCabの辞書は ipadic 辞書の表層系を平仮名に変換したものを使用した。[5] 評価結果はマクロ平均では $79.71 \%$ ,マイクロ平均では $80.10 \%$ となった。ipadic 辞書を使用しており,表 4 の結果とこの結果を単純に比較することができないことに留意する必要がある。 表 4 各モデルに対する評価精度 ## 6 考察 表 4 から,Yahoo!知恵袋を訓練事例に用いた BCCWJFT モデルと BCCWJ モデルの精度は, Wikipedia のみを訓練事例に用いた Wikipedia モデルと平仮名 FT モデルよりも高いことが確認できる。このことから,各テストデータに対するモデルの精度はモデルの訓練事例のジャンルによること,つまり Yahoo!知恵袋を訓練事例に用いた方が性能が良いことが分かる。 また,Wikipedia モデルと平仮名 FT モデルを比較すると,平仮名 $\mathrm{FT}$ モデルの方がマクロ平均で 0.32 point,マイクロ平均で 0.21 point 精度が向上した。 これにより漢字仮名交じりモデルをファインチュー ニングに利用した平仮名 FT モデルが有効であると言える。 さらに平仮名 $\mathrm{FT}$ モデルと BCCWJFT モデルの精度を比較すると,BCCWJFT モデルの方がマクロ平均で 5.50 point,マイクロ平均で 4.04 point 精度が向上した。ゆえに, Wikipedia のデータと BCCWJ のデータを使用したファインチューニングが有効であると言える。 平仮名と BCCWJ 両方のファインチューニングにおいて, Wikipedia モデルの精度が高いテストデータのデータセットに関しては,複数回ファインチュー ニングを行っても他のデータセットと比べ大幅な精度の向上が見られなかった。これは精度が高いテストデータの文体が Wikipedia の文体に近いからであると推測される。 また,BCCWJFT モデルの精度を BCCWJ モデルと比べると,テストデータのデータセットによって向上しているものと低下しているものがあるものの,マクロ平均とマイクロ平均では BCCWJ モデルの方が精度が高いことが分かる。ジャンルによる差としては,BCCWJFT モデルの方が精度が高いデー タセットは,「ベストセラー」「法律」「国会議事録」「教科書」「韻文」の 5 つであり,ジャンルの特徵により精度に差が出ていることが分かる。 最後に,Bi-LSTM CRF モデルの精度は,MeCabのマクロ平均である 79.71 \%と比べるとまだまだ改善の余地がある。 ## 7 おわりに 本研究では,Bi-LSTM CRF モデルを用いて平仮名文を単語分割するモデルを作成した。モデルの作成にあたって Wikipedia と Yahoo!知恵袋のデータを平仮名に変換したデータを使ってファインチューニングを行ったところ,Wikipedia だけを訓練事例にしたときよりも,平仮名文の形態素解析の精度が向上すること示した。また,漢字仮名交じり文を訓練事例にして、その後平仮名文を使ってファインチュー ニングすると,平仮名の形態素解析の精度が向上すること示した。また, Wikipedia と Yahoo!知恵袋のデータを平仮名に変換したデータを使ってファインチューニングを行ったモデルと知恵袋のデータを平仮名に変換したデータだけを使って訓練したモデルの形態素解析の精度の良しあしはジャンルにより異なることを示した。 今後は,平仮名文を分割するモデルの精度をさらに向上させるために,訓練事例数を増やすことを行いたい。加えて,単語の読みや発音,品詞分類といった情報も学習させることでこれらの情報を出力できる様なシステムにしたい。また,本実験では BCCWJFT モデルと BCCWJ モデルの訓練事例に Yahoo!知恵袋のデータセットを使用し精度を測ったが,今後は他のジャンルを使用してモデルを学習し,ジャンルによる精度を差を分析したい。さらに,ドメイン適応の技術を用いて複数のジャンルを組み合わせ全体的な精度を向上させたい。 ## 謝辞 本研究は、茨城大学の特色研究加速イニシアティブ個人研究支援型「自然言語処理、データマイニングに関する研究」に対する研究支援および JSPS 科研費 17KK0002 の助成を受けたものです。 ## 参考文献 [1]工藤拓, 市川宙, David Talbot, 賀沢秀人. Web 上のひらがな交じり文に頑健な形態素解析. 言語処理学会第 18 回年次大会発表論文集, pp. 1272-1275, 2012. [2]大崎彩葉, 唐口翔平, 大迫拓矢, 佐々木俊哉, 北川善彬, 堺澤勇也, 小町守. Twitter 日本語形態素解析のためのコー パス構築. 言語処理学会第 22 回年次大会発表論文集, pp. 16-19, 2016 [3] 藤田早苗, 平博順, 小林哲生, 田中貴秋. 絵本のテキストを対象とした形態素解析. 自然言語処理, Vol. 21, No. 3, pp. 515-539, 2014. [4]林聖人, 山村毅. ひらがな語の追加と形態素解析の精度についての考察析. 愛知県立大学情報科学部平成 28 年度卒業論文要旨, pp. 1-1, 2017. [5]井筒順, 明石陸, 加藤涼, 岸野望叶, 小林汰一郎, 金野佑太, 古宮嘉那子. Mecab による平仮名のみの形態素解析. 言語処理学会第 26 回年次大会発表論文集, pp. $65-68,2020$. [6]Ji Ma, Kuzman Ganchev, and David Weiss. State-of-the-art chinese word segmentation with bi-lstms. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4902-4908. Association for Computational Linguistics, 2018. [7]Suphanut Thattinaphanich and Santitham Prom-on. Thai named entity recognition using bi-lstm-crf with word and character representation. In 2019 4th International Conference on Information Technology (InCIT), pp. 149-154, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-4.pdf
# 数学・確率問題を対象とした条件記述の自動解釈 岩間 純輝†佐藤理史 $\$ \quad$ 小川浩平 $\$$ 宮田玲 †名古屋大学工学部 $\$$ 名古屋大学大学院工学研究科 iwama. junki@h.mbox.nagoya-u.ac.jp ## 1 はじめに 大学入試問題では、言語運用能力をはじめ、多岐に渡る知識やスキルが問われる。このうち、国語・英語以外の教科の問題では、問題文を分野知識 (科目固有の知識) に基づいて解釈し、何が求められているかを理解した上で、その答を分野知識を駆使して導くことが必要となる。 2011 年から 6 年間に渡って実施された「ロボットは東大に入れるか」プロジェクトでは、主要 5 教科 (国語、英語、数学、社会、理科) の大学入試問題の自動解法が研究された $[1]$ 。このうち、数学では、問題文を実閉体の一階論理式に変換し、得られた論理式に含まれる限量子を RCF-QE アルゴリズムで消去することによって解を求める方法が、中心的な解法として採用された。その一方で、この枠組みに適合しない「確率・期待値」問題の自動解法 $[2,3]$ は、十分には研究されなかった。 「確率・期待値」問題は、次のような特徴を持つ。 1. 問題を解くために必要な数学的概念 (試行、結果、標本空間、事象、確率、期待値) は、それほど複雑ではない。 2. サイコロ・玉・カードなどの一般的な素材を用いて仮想世界が記述され、その世界の中で問題が記述される。 3. 事象を規定する条件の記述は、かなり複雑になりうる。 4. 問題の解答に必要な属性 (典型的には、期待値問題における「得点」)の計算方法が、問題文中で定義される。 これらの特徴のうち、本研究では 3 番目の特徴に焦点を当て、事象を規定する条件記述を正しく解釈する問題に取り組む。本研究の特徴は、試行によって得られる結果の構造に着目し、この構造に基づいて条件記述を再帰的に解釈する点にある。 (1) 出た目の和が偶数となる確率を求めよ。 (2) 出た目が 2 つとも偶数である確率を求めよ。 例題 2 サイコロを 2 回振る。 1 回目に 2 以下または 5 以上の目が出て、かつ 2 回目に奇数の目が出る確率を求めよ。 図 1 数学・確率問題の具体例 ## 2 数学・確率問題の構造 対象とする数学・確率問題の具体例を図 1 に示す。一般に、問題文は次の 4 種類の記述から構成される。 ## 1. 仮想世界の記述 どんなオブジェクトがいくつあるか ## 2. 試行の記述 標本空間はどのように規定されるか ## 3. 確率の計算要求 ある事象が起きる確率を求めることを要求する ## 4. 定義 特定の事象や、結果に対する属性を定義する 大学入試のセンター試験で出題される確率問題は、おおよそ、次の式で解ける。ここで、|・は、集合の要素の数を表す。 $ \text { 確率 }=\frac{\mid \text { 事象 } \mid}{\mid \text { 標本空間 } \mid} $ 標本空間が有限集合の場合は、要素を列挙すれば、この式の分母の値が求まる。さらに、事象を規定する条件を計算可能な形式に翻訳して標本空間の全要素に適用すれば、事象が求まり、分子の値が求まる。つまり、解くべき問題は、「出た目の和が偶数となる」のような日本語の条件記述を、この条件の成否を判定するプログラムに翻訳することになる。 ## 34 種類の結果型 本研究では、条件記述を解釈するために、結果 (標本空間の要素) の内部構造 (階層構造) に着目する。この内部構造の型として、次に示す 4 種類を設 2. 2個のサイコロを同時に振る。4.2個のサイコロを同時に3回振る。 図 2 結果の内部構造の 4 種類の型 定する (図 2)。以下では、これを結果型と呼ぶ。 1. O 型 (オブジェクト) オブジェクト 1 個 2. LO 型 (リスト>オブジェクト) $n$ 個のオブジェクトで構成されるリスト 3.SO 型 (シーケンス>オブジェクト) $k$ 個のオブジェクトで構成されるシーケンス 4. SLO 型 (シーケンス>リスト>オブジェクト) $n$ 個のオブジェクトで構成されるリストの、長さ $k$ のシーケンス 上記の 4 種類の型は、試行の回数と 1 回の試行に関与するオブジェクトの個数によって定まる。 ## 4 条件記述を構成する要素 条件記述を構成する要素を、すべて関数としてモデル化する。関数は、以下の 6 種類に分類する。 1. 定数 (属性值) 2. (オブジェクトの) 属性値の取得 3. (数值) 演算 4. (真偽值を返す) 述語 5. 述語の成立 (真值) に対する個数・回数・順序の制約 6. 論理演算 オブジェクト、リスト、シーケンスのそれぞれの階層に対して用意した基本関数とその主要な日本語表現 (キーワード)を、表 1、表 2、表 3 に示す。条件記述は、これらの基本関数の合成関数として表現する。 上記に示した 6 種類のうち、定数 (属性値) と属性值の取得は、オブジェクトに対してのみに適用可能な関数である ${ }^{1)}$ 。一方、数値演算は、リストとシー 1) オブジェクトとしては、サイコロ、玉、カードの 3 種類を想定し、それらのオブジェクトの属性として、番号・数字と表 1 オブジェクトに対する基本関数 \\ 表 2 リストに対する基本関数 表 3 シーケンスに対する基本関数 ケンスに対して適用可能であり、述語、論理演算は、 すべての階層において適用可能である。制約は、個数制約がリストに対して、回数制約と順序制約がシーケンスに対して適用可能である。個数制約と回数制約は、抽象的な関数としては同一であるが、日本語表現では異なる接尾辞が用いられるので、区別する。 ## 5 条件記述の解釈手順 本節では、日本語で書かれた条件記述を正しく解釈し、実行可能な条件判定プログラムに変換するアルゴリズムを示す。入力は、条件記述 (文字列) と結果型であり、出力は、それぞれのレベルに対して定義する合成関数である。 色を想定した。 図 3 例題 1 の解釈 ## 5.1 要素への分解 まず、条件記述を文節に分解し、キーワードを手掛かりに結合・分解・並び替えを行って、表 1-3に示した要素 (日本語表現) の並びに変換する。たとえば、図 1 の例題 1 に対しては、以下のような要素の並びを得る。 (1) a. [出た目の, 和が, 偶数となる] b. [出た目が, 2 つとも, 偶数である] これらの要素のうち、「出た目(の・が)」は属性値の取得 (オブジェクト階層)、「2つとも」は個数制約 (リスト階層) であることが一意に定まる。「和 (が)」 は、リストとシーケンスの両方の階層に対して可能であるが、例題 1 の結果型は LO 型なので、リスト階層と定まる。残りの「偶数 (となる・である)」がどの階層に属するかは、この段階では定まらない。 ## 5.2 構成要素の並びの解釈と関数の合成 次に、要素の並びを、結果型の階層構造にしたがって再帰的に解釈する。それぞれの階層では、与えられた要素の並びから、その階層の要素を抜き出し、残りを下位の階層に渡す (再帰呼び出し)。下位階層の処理結果として関数名が得られると、その関数名と抜き出した要素を組み合わせて合成関数を定義し、その関数名を上位の階層に返す。例題 1 に対して定義される合成関数を図 3 に示す。 要素への分解の過程で階層が一意に定まらなかった要素の階層は、以下のルールで決定する。 1. 数値演算の階層決定 SLO 型の場合は、リスト階層と判定する。 2. 述語の階層決定 (a) 要素の並びに数値演算が含まれる場合、その数值演算と同じ階層と判定する。 (b) 要素の並びに制約表現が含まれる場合、その制約表現よりも下位の階層と判定する。 要素の並び (1a)をリスト階層で解釈する場合、「和 (が)」が数値演算 (リスト階層) なので、「偶数 (となる)」もリスト階層と判定する (ルール 2a)。残りの「出た目 (の)」は、下位のオブジェクト階層に渡される。一方、要素の並び (1b) をリスト階層で解釈する場合、個数制約「2つとも」がリスト階層なので、残りの「出た目 (が)」と「偶数 (である)」を下位のオブジェクト階層に渡す (ルール 2b)。 ## 5.3 論理演算を含む場合 条件記述に論理演算子 (AND と OR) に相当する記述が含まれる場合は、5.2 節の処理を行う前に、その論理演算が結びつける引数の範囲を決定する。AND と OR の引数は、必ず同じ階層の要素である。この制約に基づき、以下のように引数の範囲を定める。 1. 直前と直後の要素が同一種類の関数であれば、 その両者を論理演算の引数とみなす。 2. そうでなければ、先頭から直前までと、直後から末尾までを、論理演算の引数とみなす。 たとえば、図 1 の例題 2 は、要素への分解によって、次のような並びが得られる。 (2) [1 回目に, 2 以下, または, 5 以上の, 目が, 出て, かつ, 2 回目に, 奇数の, 目が, 出る] この並びに含まれる「または」の直前は「2 以下 (述語)」で、直後は「5 以上の (述語)」なので、この OR の引数は、これらの要素と解釈する。一方、「かつ」の直前は「出て (述語)」で、直後は「2 回目に (回数制約)」なので、トップレベルの AND と解釈する。以上により、 (3) [[1 回目に, [2 以下, OR, 5 以上の], 目が, 出て], AND, [2 回目に, 奇数の, 目が, 出る]] が得られる。その後、括弧をはずし、以下のような論理演算を含まない形式に展開する。 (4) a. [1 回目に, 2 以下の, 目が, 出る] b. [1 回目に, 5 以上の, 目が, 出る] c. [2 回目に, 奇数の, 目が, 出る] この際、分割後の条件記述が自然になるように、整形する。たとえば、「5 以上の」より、「の」を補完して「2以下の」とする。 図 4 例題 2 の解釈 (一部) 表 4 実験結果 これらの条件記述のそれぞれに、5.2 節の処理を適用し、最後に論理演算で結合すれば、図 4 に示す合成関数が得られる。 ## 6 実験と検討 アルゴリズムの開発に使用しなかった評価用デー タを用いて、作成したアルゴリズムの評価を行った。評価用データの出典を以下に示す。 実験 1 市販の問題集 2 冊 [4,5] 実験 2 センター試験 (2000 年から 2020 年のうち、偶数年の本試験と追試験 22 回分) 対象とする問題は、問題の記述に使われるオブジェクトがサイコロ、玉、カードのいずれかで、かつ、結果型が 3 節に示した 4 種類のいずれかに該当する問題である。それぞれの問題からは、 1. 試行におけるオブジェクトの個数と回数 2. 確率を求める事象の条件記述 を抜き出し、これを入力とした。アルゴリズムが出力する解釈—どの階層にどのような合成関数を定義したか—を目視にて確認し、解釈の成否を判定した。 まず、実験 1 を行い、アルゴリズムの不備を修正した後、実験 2 を行った。実験結果を表 4 に示す。 この表の分数の分母は条件記述の数、分子は正しく解釈できた数を表す。 表 4 に示すように、両方の実験で 8 割以上の正解率が得られた。この結果より、本アルゴリズムは、確率問題に現れる条件記述の大半を正しく解釈でき ると考えられる。結果型は、LO 型、SO 型の順に多く、SLO 型は 1 例も存在しなかった2)。 解釈に失敗した原因として最も多い (13 件中 9 件) のは、基本関数の不足である。たとえば「 $u$ が整数になる (確率)」という条件記述は、「整数 (になる)」 という関数 (述語) を用意していなかったため、解釈できなかった。 本アルゴリズムにおいて、基本関数を追加すること自身は容易である。しかしながら、必要となる基本関数を、前もってすべて予想することは、かなり難しい。 特に問題となるのは、 6 種類の基本関数の中の述語である。今回は、オブジェクトの属性値として色と番号を扱うので、非数値 (色)を対象とする述語と整数 (数字) を対象とする述語を用意した。しかし、先にあげた述語「整数 (になる)」は、試行によって得られた 2 つの数字 $a, b$ から、(結果に対する) 新たな属性として分数 $u=a / b$ を定義し、「 $u$ が整数となる」確率を求める問題として出現した。試行によって得られる結果の構造をそのまま使うのではなく、結果にある写像を施し、その出力の確率を問う場合、あらかじめ用意すべき述語が十分に限定できない。 評価用データの条件記述のうち、軽微な修正では対処できないのは、次の 2 件である。 (5) a. 8 回目が終わった時点で赤玉がすべて取り出されている b. 赤玉がちょうど 8 回目ですべて取り出される 前者は「 $n$ 回目までに個数制約が満たされた状態になっている」ことを、後者は「ちょうど $n$ 回目で個数制約が満たされた状態となる」ことを意味するが、これらの解釈を現在の枠組みに組み込むのは、 それほど単純ではない。 ## 参考文献 [1]新井紀子, 東中竜一郎(編). 人工知能プロジェクト「ロボットは東大に入れるか」. 東京大学出版会, 2018. [2]神谷翼, 松崎拓也, 佐藤理史. 数学確率文章題の自動解答システムの開発. 言語処理学会第 21 回年次大会発表論文集, pp. 365-368, 2015. [3]神谷翼, 松崎拓也, 佐藤理史. 題材となるオブジェクトの抽象化による確率文章題の自動解答. 人工知能学会第 30 回全国大会論文集, 4B1-2, 2016. [4]森谷慎司. 数学場合の和・確率分野別標準問題精講.旺文社, 2016 . 2)開発用データには、 1 例存在した。 [5]松田聡平. 単元攻略場合の数・確率解法のパターン 30 .技術評論社, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-5.pdf
# BERT を使用した日本語の単語の通時的な意味変化の分析 小林千真 ${ }^{1}$ 相田太一 ${ }^{2}$ 小町守 ${ }^{2}$ 法政大学 1 東京都立大学 ${ }^{2}$ kazuma.kobayashi.3t@stu.hosei.ac.jp \{aida-taichi@ed.,komachi@\}tmu.ac.jp ## 1 はじめに 時間の経過で単語の使われ方や意味は変化することがある。例えば、「こだわる」という単語は最近では広告でもポジティブな意味で使われているが、元々の意味は必要以上に気にするというネガティブな意味であった1)。このような現象は日本語に固有のものではなく、その他の言語でも確認されている [1]。単語の意味変化を定量的に分析する技術は言語学や辞書学における単語の意味変化の分析の助けとなることが期待される。 単語の意味変化を捉える研究として、単語分散表現を用いる手法が提案されている $[2,3,4]$ 。しかし、 これらはどれも各期間で 1 単語につき 1 つのべクトルを対応させ、それらを比較することで単語の意味変化を検出している。また、時武ら [5] は単語の意味の広がりを捉えるために、ガウス埋め込みを用いて通時的な単語の意味変化を分析する手法を提案した。しかし、これらの手法は意味の検出はできるが、単語が持つ複数の意味がどのように変化しているのかを捉えることは難しい。これは 1 単語タイプに1つの表現を与えるためである。 これに対して、BERT [6] に代表される事前学習済み言語モデルを使えば各単語トークンが出現する文脈に応じた単語べクトルを獲得することができるため、単語がどの意味で使用されているのかを単語トークンレベルで捉えることができる。近年の研究では、 $\mathrm{Hu}$ ら [7] の BERT から得た単語べクトルを辞書に載っている語義に対応づけをする研究、 Giulianelli ら [8] の BERT から得た単語ベクトルの集合にクラスタリングを行う研究などが行われている。しかし、どちらの研究も英語でのみ行われている。 日本語における単語の意味の通時的変化を捉える研究としては相田らの研究 [9] がある。しかし、彼らの研究でも先程述べたように 1 単語タイプにつき  を使用する。 ## 3 実験設定 ## 3.1 データセット 幅広い年代にわたる日本語コーパスとして、国立国語研究所の『日本語歴史コーパス』2) の一部として公開されている近代雑誌コーパスに、「昭和・平成書き言葉コーパス」3)として構築中の雑誌 (『中央公論』『文藝春秋』)データを追加したものを用いた。コーパス全体は 1874 年から 1997 年までに刊行された雑誌から成るが、これを 1898 年から 1997 年の 100 年間を 25 年区切りで 4 分割したものを使用した。 ## 3.2 対象とする単語 一般的に意味の変化が起きていると知られている日本語の単語として、「こだわり」、「敷居4)」、「適当 ${ }^{5}$ 」、「全然6) 」などがある。本研究ではこれらの単語を対象とした。ただし、動詞の「こだわる」の活用形としての「こだわり」は対象とせず、名詞の 「こだわり」のみを対象とした。また、前処理として対象の単語における表層形の正規化を行った。 ## 3.3 辞書 goo 辞書7) の国語辞典(デジタル大辞泉。2020 年 12 月時点。)と日本国語大辞典(第二版)を使用した。基本的に、3.2 節で示した単語の goo辞書に載っている意味と例文(全て)を使用したが、「敷居」は例文が記載されていなかったため、日本国語大辞典を使用した。ただし、日本国語大辞典の例文は、 もっとも新しい年代の例文を 1 つ使用した。 ## 3.4 実験方法 1898 年から 1997 年のコーパスの全文を BERT に入力し、対象の単語の単語ベクトルを獲得する。 ただし、本研究では、事前学習済みモデルとして、 2) https://pj.ninjal.ac.jp/corpus_center/chj/ 3) https://pj.ninjal.ac.jp/corpus_center/cmj/woman-mag/ 4)「敷居」という単語には「敷居が高い」という熟語があり、「不義理をして行きにくい」という意味から「気軽にはいけない」という意味に変化している。 5)「適当」は「ふさわしい」と「程よい」という意味に加え、近年では「いいかげん」という意味でも使われている。 6)「全然」は明治時代から戦前までは「すっかり」という意味で使用されることが多かったが、戦後は「(否定の表現を伴って)少しも」という使い方が一般的になった。 7) https://dictionary.goo.ne.jp/ huggingface ${ }^{8)}$ で公開されている東北大の日本語版 BERT $^{9}$ を使用した。このようにして得た単語べクトルの集合に対し、各対象単語で辞書とクラスタリングの手法をそれぞれ適用し、単語ベクトルの集合をグルーピングした。期間ごとにその結果を語義の使用比率を示した積み上げ棒グラフで表した。ここで、辞書の手法の凡例には辞書の語義をそのまま示し、クラスタリングの手法の凡例には各クラスタ内で主に確認された用例を示した。また、単語べクトルとそれに対応する実際の用例を比較することで分析をした。 ## 4 結果と考察 図 1 に辞書の手法とクラスタリングの手法それぞれの実験で得られた各単語の通時的な語義の使用比率の変化を示す。また、図 2 に「全然」における各手法の単語ベクトルの分類の結果と期間ごとの単語ベクトルの分布を主成分分析で可視化した散布図を示す。 ## 4.1 事例分析 「適当」図 1aの『辞書』では sense_3の「いいかげん」の割合が徐々に大きくなっており、3.2節で想定していた結果を得た。図 1eの『クラスタリング』 の手法では、通時的な変化は捉えられなかった。 実際に単語ベクトルに対応する文を確認すると、 どちらの手法においても、「ふさわしい」の用例が全てのクラスタに出現していた。具体的には、『辞書』において、sense_1では「ふさわしい」の用例がほとんどであり、sense_2には「ふさわしい」と「程よい」の用例が多く属していた。sense_3には「ふさわしい」と「いいかげん」の用例が多く見受けられた。『クラスタリング』において、cluster_1には「ふさわしい」、「程よい」、「いいかげん」の 3つの用例があり、cluster_2では「ふさわしい」と「程よい」の用例があった。 「全然」 図 $1 \mathrm{~b}$ の辞書』では、ほとんどの単語ベクトルが sense_2の「少しも(否定)」に属してしまい、通時的な変化を捉えられなかった。図 1f の 『クラスタリング』では「すっかり」と「少しも(否定)」の用例を含んでいる cluster_1 の割合が徐々に小さくなっている。「すっかり」の用例は cluster_1 でのみ出現しており、3.2 節で想定した結果が得ら  (a)「適当」辞書 (e)「適当」クラスタリング (b) 「全然」辞書 (f)「全然」クラスタリング (c)「こだわり」辞書 (g)「こだわり」クラスタリング (d)「敷居」辞書 (h)「敷居」クラスタリング 図 1: 通時的な語義の使用比率を表した棒グラフ。 れた。 実際に単語ベクトルに対応する文を確認すると、『辞書』において sense_1 には形容動詞の「余すところのないさま」の意味ではなく、「すっかり」の用例が属していた。sense_2 には「少しも(否定)」 と「すっかり」の用例が多く属していた。sense_3は 「すっかり」の用例が属していた。sense_4には「とても」ではなく、「少しも(否定)」と「すっかり」の用例が見受けられた。コーパスには「すっかり」の用例は sense_3 に属する単語以外にも多く存在していたが、sense_3 にはわずかしか属さなかった。また、コーパスには「とても」と「余す所のない(形動)」の用例はほとんどなかった。『クラスタリング』において、cluster_1には「すっかり」と「少しも (否定)」の2つの用例が多く見られ、cluster_2では、 ほとんどが「少しも(否定)」の意味の用例だった。主成分分析で「全然」の単語ベクトルを可視化した図 $2 \mathrm{a}, 2 \mathrm{~b}$ に注目すると、それぞれの手法の分類結果は様子が異なることが分かった。これは辞書を使った手法では例文から構築した語義べクトル (図 2a の星)とのコサイン類似度に注目しているのに対して、クラスタリングでは k-means 法を使用し、 セントロイドからの距離に注目していることによる違いである。ここで、図 $2 \mathrm{~b}$ の赤線で囲った部分に 「すっかり」の用法がまとまっていた。また、図 2c に示した期間ごとの分布から年代が新しくなるにつれて徐々に、単語ベクトルの分布が右上から左下にシフトしていくことを確認した。 「こだわり」 図 1cの『辞書』ではほとんどが sense_1 に属しており、意味変化を捉えていなかった。図 $1 \mathrm{~g}$ の『クラスタリング』では、「滞る」10)の用例が属してた cluster_1 の割合が徐々に減少しており、 3.2 節で想定していた結果とは異なるが、意味の通時的変化を捉えた。 実際に単語ベクトルに対応する文を確認すると、『辞書』において、sense_1 は「執着する」と「滞る」 の用例、sense_2 は「執着する」の用例が 1 件のみ属していた。コーパスには「難癖をつける」の用例は存在していなかったためこのような結果になったと考える。『クラスタリング』において、cluster_1 は 「滞る」の用例、cluster_2は「執着する」の用例をそれぞれ多く含んだ。 10)コーパスの例文:「疾患のほかに避妊手術の後遺症で精神障害が起きたことを、二人はこだわりなく話した。」 (a) 「全然」辞書 (b)「全然」クラスタリング (c)「全然」期間ごとの分布 図 2: 主成分分析を使用し、「全然」の単語ベクトルを可視化した散布図。 「敷居」図1dの『辞書』では、ほとんどがsense_2 に属しており、意味変化を捉えていなかった。図 $1 \mathrm{~h}$ の『クラスタリング』では、比喻的な用法が属する cluster_2 の割合が徐々に大きくなり、3.2 節で想定していた意味変化とは異なるが、意味の通時的変化を捉えた。 実際に単語ベクトルに対応する文を確認すると、『辞書』において、sense_1 は「仕切りとして敷く横木」の用例が属していたが 2 件のみであり、sense_2 は「仕切りとして敷く横木」の用例が属していた。辞書に載っている「敷居」の意味は「しきもの」と 「仕切りとして敷く横木」であるが、コーパスでは前者はほとんど出現しないため、sense_1 に分類されたものがほとんどなかったと考える。『クラスタリング』において、cluster_1では物理的な「仕切りとして敷く横木」の用例、cluster_2では「... 敷居が高い..」や「... 血の敷居は越え...」のように物理的な意味から拡張し抽象化された用例が多く出現していた。 ## 4.2 考察 辞書を使用した手法では、辞書に載っている語義に対応した用例を捉えることが多かったが、「全然」 では語義の違いを捉えられなかった。一方で、クラスタリングを使用した手法では、辞書には載っていない抽象的な意味を捉えることや辞書に載っているよりも詳細な違いを捉えることがあるとわかった。 このため、クラスタリングを使用した手法は人間が意識していない意味の変化を捉えることを期待できるといえる。 「適当」における辞書の手法と「全然」におけるクラスタリングの手法ではそれぞれ、結果としては意味の通時的な変化を捉えたが、各クラスタが単一の用例で構成されていないため、適切な分類ができて いない可能性があると考えた。 図 $2 \mathrm{c}$ における年代による分布のシフトは「全然」 の意味が徐々に変化する様子を捉えており、分類が難しかったと予想される。また、辞書の手法で、全てのクラスタに「すっかり」が含まれていたのは、語義ベクトルが古い時代の分布に近い位置にあったことや BERT が通時的なコーパスに適応できなかったことが原因と考える。 その他にも辞書の手法では、例文の数が十分でなかったことや辞書の語義が網羅されていない場合があることが通時的な意味変化を捉えられなかった原因と考える。クラスタリングの手法では、k-means 法がそれぞれのクラスタがだいたい同じ大きさであることを仮定するため、語義の頻度に大きな偏りがある場合は適切でないことがあると考える。 ## 5 おわりに 本研究では BERT を使用して単語の通時的な意味変化を追う 2 つの手法を日本語に適応し、比較することでそれぞれの手法の特徴を確認した。辞書の手法では、辞書に載っている意味しか扱えないため、目的の意味を扱えないことや辞書の例文をそのまま使うのでは不十分である可能性があることを確認した。クラスタリングの手法では、辞書に載っていない変化を捉えることが期待できることや k-means 法が各クラスタが大体同じ大きさであることを仮定するので単語の意味を分類しきれない事例があることを確認した。 また、そもそも BERT から得た単語ベクトルが意味の違いを捉えきれない可能性があるため、今後の研究として、BERT から得られる単語べクトルの特徵について調査を行いたい。 謝辞本研究は JSPS 科研費 19H00531 の助成を受けたものである。 ## 参考文献 [1] 岩本蘭, 湯川正裕. Auto-antonym の多カーネルオンライン意味変化分析. 言語処理学会第 25 回年次大会発表論文集, pp. 171-174, 2019. [2] Yoon Kim, Yi-I Chiu, Kentaro Hanaki, Darshan Hegde, and Slav Petrov. Temporal analysis of language through neural language models. In Proceedings of the ACL 2014 Workshop on Language Technologies and Computational Social Science, pp. 61-65, Baltimore, MD, USA, June 2014. Association for Computational Linguistics. [3] William L. Hamilton, Jure Leskovec, and Dan Jurafsky. Diachronic word embeddings reveal statistical laws of semantic change. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1501, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Zijun Yao, Yifan Sun, Weicong Ding, Nikhil Rao, and Hui Xiong. Dynamic word embeddings for evolving semantic discovery. In Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining, WSDM '18, p. 673-681, New York, NY, USA, 2018. Association for Computing Machinery. [5] 時武孝介, 村脇有吾, 黒橋禎夫. ガウス埋め込みに基づく単語の意味の史的変化分析. 言語処理学会第 24 回年次大会発表論文集, pp. 61-64, 2018. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Renfen Hu, Shen Li, and Shichen Liang. Diachronic sense modeling with deep contextualized word embeddings: An ecological view. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3899-3908, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Mario Giulianelli, Marco Del Tredici, and Raquel Fernández. Analysing lexical semantic change with contextualised word representations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3960-3973, Online, July 2020. Association for Computational Linguistics. [9] 相田太一, 小町守, 小木曽智信, 高村大也, 坂田綾香,小山慎介, 持橋大地. 単語分散表現の結合学習による単語の意味の通時的変化の分析. 言語処理学会第 26 回年次大会発表論文集, pp. 485-488, 2020. [10] Peter J.Rousseeuw. Silhouettes: A graphical aid to the interpretation and validation of cluster analysis. In Journal of Computational and Applied Mathematics, Volume 20, pp. 53-65, 1987.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-6.pdf
# 訓練事例と辞書用例を異なるモデルで表現した語義㖟昧性解消 谷田部梨恵 ${ }^{1}$ 佐々木稔 ${ }^{2}$ 1 茨城大学大学院理工学研究科情報工学専攻 2 茨城大学工学部情報工学科 \{19nm732r, minoru.sasaki.01\}@vc.ibaraki.ac.jp ## 1 はじめに 語義曖昧性解消(WSD)は文中の多義語が辞書中のどの語義で使われるのかを識別するタスクである.現在,この WSD はディープラーニングを用いて行うことが主流で,そのシステムにおいて辞書やシソ ーラスといった外部知識を組み合わせることの有効性が示されている,現在までに,語義定義文と教師あり学習を組み合わせた GlossBERT [1]や BEM [2], シソーラスの上位下位関係などの単語間関係を組み合わせた EWISE [3]や EWISER [4]などが存在する [5]. しかし,辞書によっては同じ辞書の定義文を使用しても精度が低下することがある。上記の研究ではすべて WordNet の辞書から抽出されたラベルの意味区分や語義の定義文と用例文を使用している. WordNet を使うことで WSDへの有効性は示されているが,他の辞書を使った場合でも有効かどうかは明らかになっていない。そこで,外部知識として日本語を対象とした SemEval2010 日本語 WSD タスクデータで使われる岩波国語辞典の語義定義文を EWISE と同じ手法で予備実験を行ったところ,低い分類精度となってしまい,有効性を確認することができなかった。 岩波国語辞典の語義定義文を使用しても有効性を確認できなかった要因のひとつとして, 各語義に含まれる用例文は文の一部しか掲載されていないという点が考えられる. 用例文の一部だけしか記述がないことから,他の語義と区別することが難しい用例文がいくつか存在する,例えば,動詞「上げる」に含まれる「よい状態に高める」という語義において,「腕を上げる(上達する)」や「上げたり下げたり(ほめたりくさしたり)」といった用例文が紹介されている。これらの用例文は前後の文脈によって 「物を低い所から高い所にもってゆく」という別の語義として使用することも可能である.このため,有効な語義の分散表現を求めることができなかったのではないかと考えられる。 そこで我々は,語義ラベルとして使用した辞書とは異なる辞書の情報を効果的に利用した WSD システムの構築を目指している。従来手法では辞書情報をモデル化する際に訓練データと同じ辞書が用いられるが,異なる辞書から得られるモデルを組み合わせることで有効な WSD を行うことが可能かどうか検討する,本稿では,完全な文として用例文が記述されている辞書として国立国語研究所の「基本動詞ハンドブック」に含まれる用例文を使用する [6].この用例文集合を使用したニューラルネットワークのモデルを辞書のモデルとする。このモデルと SemEval2010 日本語 WSD タスクデータから学習したモデルを組み合わせて WSD を行い,異なる辞書から構築されたモデルが有効かどうか検証する。 ## 2 使用データと対象単語 本稿で使用するデータとして, 日本語 WSD の評価データである SemEval2010 日本語 WSD タスクデ一夕 [7]と利用可能な日本語辞書である「基本動詞ハンドブック」を使用する. ## 2.1 SemEval2010 日本語 WSD データ SemEval2010 日本語 WSD タスクデータ(SE)は 50 個の対象単語に対して WSD の精度を評価するためのデータである[7]. 各対象単語について, 訓練デ一夕とテストデータとしてそれぞれ 50 個の用例文が用意されており,岩波国語辞典の意味区分に従ってラベル付けされている. ## 2.2 基本動詞ハンドブック 「基本動詞ハンドブック」(HB)は日常生活でよく使われる基本的な動詞単語の語義を日本語学習者や日本語教師に向けて解説したオンラインツールである. 動詞単語に対して, 語義の定義と 5 件程度の用例文,文法情報などが記載されている。用例文には 図 1 並列 WSD モデル 手作業で岩波国語辞典の語義をラベル付けした。八ンドブックの語義定義文に対応する語義が岩波国語辞典に存在するとき, その語義のラベルを付与する. ハンドブックの語義が岩波国語辞典に存在しない場合やひとつの語義が複数の語義に対応する場合は, それらの用例文にはラベルを付与せず,使用しないこととした. ## 2.2 対象単語 対象単語は SemEval2010 日本語 WSD タスクデー タと基本動詞ハンドブックの両方に登録された 10 個の動詞単語とする. 具体的な対象単語は「'あげる ','上げる','揚げる','挙げる', 「いきる','生きる','活きる '」, 「'出す'」, 「'立つ','建つ','発つ'」, 「'出る'」,「'のる','乗る','載る'」,「'見える'」,「'見る'」,「'持つ'」,「'やる '」の 10 単語である. ## 3 WSD モデル WSD モデルは訓練データである用例文を入力して, 対象単語の語義推定を行う,異なる訓練データを用いて WSD モデルを構築し, その分類精度の比較を行う。 ## 3.1 用例文の文脈ベクトル化 入力する用例文は対象単語前後の文脈を考慮したベクトルに変換される. 文脈ベクトルへ変換するために,事前学習された ELMo モデルを用いて,用例文の分散表現を得る.このモデルは文脈情報を考慮した 2 層双方向 LSTM 構造で,本稿では ELMo モデルの最後の層の出力のみを使用する. 入力された用例文に対して対象単語及び前後 2 単語を抽出し, ELMo モデルに入力して 5 単語の分散表現を得る.これを連結した 5120 次元ベクトルを WSD モデルに入力する文脈ベクトルとして使用する. ## 3.2 SE-WSD モデル SemEval2010 日本語 WSD タスクデータを用いた WSD モデルを構築する. モデルには多層パーセプトロン(MLP)を使用する.今回の実験では中間層のノー ド数を 50 , 最適化手法として確率的勾配降下法を使用,学習の繰り返し数であるエポック数を 50 と設定して分類モデルの学習を行う. ## 3.3 HB-WSD モデル 「基本動詞ハンドブック」の用例文を用いた WSD モデルを構築する.モデルは SE-WSD と同じ多層パーセプトロン(MLP)を使用する.実験でも SE-WSD と同じパラメータ設定で分類モデルの学習を行う. ## 3.4 TR-WSD モデル SemEval2010 日本語 WSD タスクデータの訓練デ一タと「基本動詞ハンドブック」の用例文をひとつの訓練データにまとめて WSD モデルを構築する. SE-WSD と同じ MLP とパラメータ設定を使用して学習を行う。 ## 3.5 並列 WSD モデル 並列 WSD モデルは学習済みの SE-WSD モデルと HB-WSD モデルを並列化したモデルで, 訓練データのモデルと外部知識のモデルを異なるモデルとして分離したモデルである. 図 1 に並列 WSD モデルの概要を示す. SemEval の訓練データとハンドブック 表 1 実験結果(4 モデルのうち最も高い精度を太字で示す) の用例文に対して,用例文の文脈ベクトルを学習済みの SE-WSD モデルと HB-WSD モデルに入力し, その中間層の 50 次元ベクトルを生成する. 2 つの中間層のベクトルを連結した 100 次元ベクトルを MLP に入力して, 再度この MLP の訓練を行う。この MLP についても, 中間層のサイズや学習パラメータ設定は SE-WSD と HB-WSD と同じものを使用する. ## 4 実験 本節では, 3 節に示した 5 種類の WSD システムの分類精度を分析するために, 10 個の動詞単語について評価データによる精度比較を行う,精度評価は Semeval2010 日本語 WSD タスクデータのテストデ ータを使用する。 ## 4.1 実験結果 表 1 に 4 つの WSD モデルを用いた場合の語義識別精度を示す. 平均精度は SE-WSD が $71.3 \%$, HBWSD が $66.6 \%$, TR-WSD が $73.5 \%$ ,並列 WSD は 71.1\%であった.これらのモデルの中では TR-WSD の精度が最も高いことから, 辞書中の用例文も訓練データに追加して学習をする方が効果的であると考えられる。 SE-WSD と HB-WSD を比較すると, HB-WSD は多くの動詞単語で精度がSE-WSDを上回ることができなかった. HB-WSD は「いきる」と「だす」の 2 単語で精度が高かった. どちらも少数語義の用例文を正しく識別できたことが要因だと考えられる.しかし, 他の多くの単語で SE-WSD の方が高い精度で あった. 辞書の意味区分が異なるため語義の出現分布が偏ったことが要因として考えられる.また,「のる」のように辞書から語義の用例文を均等に抽出したことが要因で識別誤りが増えた単語も存在する。 一般的に, TR-WSD のように訓練データに辞書の用例文を追加すれば多くの単語で精度の上昇が期待できる.このとき, 追加する用例文は岩波国語辞典のように用例文の一部分を追加するのではなく,文として追加することで精度が上がると考えられる。 今回の実験では訓練データと辞書用例文のモデルを並列化しても有効とは言えず,外部知識を使う場合でも用例文はひとつのモデルに集約する方が効果的であると考えられる。 ## 5 おわりに 本稿では, 語義ラベルで使った辞書とは異なる辞書の情報を異なるモデルで表現する WSD の効果について分析を行った.今回の実験では異なる辞書の用例文を訓練データに追加した方が高い精度であつた. 異なる辞書の効果的な活用方法と外部知識の効果的なモデル化を行うことが今後の課題である. ## 参考文献 1. HuangLuyao, ほか. GlossBERT: BERT for Word Sense Disambiguation with Gloss Knowledge. : the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019. ページ: pp. 3509-3514. 2. BlevinsTerra, ZettlemoyerLuke. Moving Down the Long Tail of Word Sense Disambiguation with Gloss Informed Bi-encoders. : the 58th Association for Computational Linguistics (ACL2020), 2020. ページ: pp. 1006-1017. . 3. KumarSawan, ほか. Zero-shot Word Sense Disambiguation using Sense Definition Embeddings. : the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), 2019. ページ: pp. 5670-5681. 4. BevilacquaMichele, NavigliRoberto. Breaking Through the (80\%) Glass Ceiling: Raising the State of the Art in Word Sense Disambiguation by Incorporating Knowledge Graph Information. : the 58th Annual Meeting of the Association for Computational Linguistics (ACL2020), 2020. ページ: pp. 2854-2864. 5. LoureiroDaniel, JorgeAlípio. Language Modelling Makes Sense: Propagating Representations through WordNet for Full-Coverage Word Sense Disambiguation. : the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), 2019. ページ: pp. 5682-5691. 6. 国立国語研究所. 『基本動詞ハンドブック』.(オンライン) https://verbhandbook.ninjal.ac.jp. 7. OkumuraManabu,ほか. Semeval-2010 task: Japanese WSD. : the fifth International Workshop on Semantic Evaluation (SemEval-2010), 2010. ページ: pp. 69-74. .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-7.pdf
# 学習済み単語分散表現を用いた連続空間トピックモデル 井上 誠一 ${ }^{1}$ 相田 太一 ${ }^{2}$ 浅井 学 ${ }^{1}$ 小町 守 ${ }^{2}$ 創価大学 ${ }^{1}$ 東京都立大学 ${ }^{2}$ e1706456@soka-u.jp, m-asai@soka.ac.jp, \{aida-taichi@ed., komachi@\}tmu.ac.jp ## 1 はじめに トピックモデルは,テキストコーパスから文書中に潜在的に存在する話題を自動的に抽出する統計モデルであり,情報検索 [1],協調フィルタリング [2],著者識別 [3],意見抽出 [4] など,自然言語処理の内外で様々なアプリケーションに応用されている. トピックモデルの代表的な手法である, Latent Dirichlet Allocation (LDA) [5] は, 各文書に潜在トピックがあると仮定し, 統計的に共起しやすい単語の集合が生成される要因を潜在トピックという観測できない確率変数で定式化している。一方,持橋らによって提案された Continuous Space Topic Model (CSTM) [6] は, LDA とは異なり, 潜在トピックといった中間変数を用いることなく文書をモデル化する。具体的には,単語に潜在座標を明示的に導入し,その上に文書の意味を表すガウス過程に従う関数を考えることで定式化される. LDAでは,単語を生成する確率分布は固定となっており, トピック分布の制御によって単語の生起確率を操作するため,各文書に応じて単語を生成する確率分布を変更することができなかった. それに対しCSTMでは, 単語の確率を潜在トピックを通じてではなく, 単語の潜在座標と文書の意味を表す関数によって文書ごとに直接操作するため, 文書に応じて動的に単語分布を変更することが可能となり, パープレキシティにおいて LDA など従来のトピックモデルを上回る性能を発揮したと報告されている。 CSTM は,単語の分散表現を用いて文書のモデル化を行っているが,分散表現は推定パラメータとしてモデル内で学習される構造となっており,そのパラメータの多さからモデルの推定に時間がかかる. また,その学習に使われる情報は単語の出現頻度のみとなっており, 単語の意味的な関係性を捉えることが難しい. そのため, Gaussian LDA [7] と同様に,単語の意味的な関係性を捉えた単語分散表現を用い,事前情報として与えれば,収束の高速化と精度 の向上が期待できる. そこで, 本研究では, CSTM の推定パラメータの一つである単語の潜在座標をWord2Vec [8] で事前に学習し, CSTM の生成モデルに学習済みの単語分散表現を導入する手法を提案する,日本語と英語のコーパスを用いて実験を行った結果,収束速度が改善し,パープレキシティにおいて提案手法が CSTM を超える性能を持つことを示した. また,学習したモデルを用いて文書における単語の重要度を観察し,定性的な評価を行った。 ## 2 関連研究 ## 2.1 連続空間トピックモデル CSTM では,言語のバースト性 [9]を考慮するため,ディリクレ分布と多項分布の合成分布である Polya 分布を用いて単語の生起確率をモデル化する. $\boldsymbol{y}=\left(y_{1}, y_{2}, \ldots, y_{V}\right)$ を文書 $\boldsymbol{w}$ に出現する各単語の出現頻度とすると, Polya 分布は次のように定義される $ p(\boldsymbol{y} \mid \boldsymbol{\alpha})=\frac{\Gamma\left(\sum_{v} \alpha_{v}\right)}{\Gamma\left(\sum_{v}\left(\alpha_{v}+y_{v}\right)\right)} \prod_{v} \frac{\Gamma\left(\alpha_{v}+y_{v}\right)}{\Gamma\left(\alpha_{v}\right)} $ ( $\alpha$ は Polya 分布の集中度パラメータ).ここで,各単語 $w_{v}$ が $d$ 次元の潜在座標 $\phi\left(w_{v}\right) \sim \mathcal{N}\left(0, I_{d}\right)$ を持っていると仮定し,それぞれの文書で,意味的に関連のある単語の生起確率を大きくするため,同じ潜在空間上に平均 0 のガウス過程に従う関数 $ f \sim \mathrm{GP}(0, \mathrm{~K}) $ $\left(\mathrm{K}\right.$ はカーネル行列で, $\mathrm{K}_{i j}=k\left(w_{i}, w_{j}\right)=\phi\left(w_{i}\right)^{T} \phi\left(w_{j}\right)$ の内積カーネル)を生成する. ガウス過程 [10] とは,ランダムな回帰関数を生成する確率過程であ $\eta, k\left(w_{i}, w_{j}\right)$ が近いほど対応する出力 $f\left(x_{i}\right), f\left(x_{j}\right)$ も近くなる. $f$ は直感的には「この文書で言いたいこと」を表している. そして,その関数値に従って Polya 分布の集中度パラメータ $\alpha_{v}$ が大きくなるように $ \alpha_{v} \propto \alpha_{0} G_{0}\left(w_{v}\right) \exp \left(f\left(w_{v}\right)\right) $ とモデル化する. ここで, $\alpha_{0} \sim \mathrm{Ga}\left(a_{0}, b_{0}\right)$ は推定パラメータであり, $\mathrm{Ga}\left(a_{0}, b_{0}\right)$ はガンマ分布である. また, $G_{0}\left(w_{v}\right)$ は単語 $w_{v}$ の「デフォルト」確率であり,最尤推定値 \# $\left(w_{v}\right) / \sum_{i} \#\left(w_{i}\right)$ を用いる(\# $\left(w_{v}\right)$ は全文書中における単語 $w_{v}$ の出現頻度)。これらを踏まえると,CSTM の生成過程は次のようになる。 1. Draw $\alpha_{0} \sim \operatorname{Ga}\left(a_{0}, b_{0}\right)$. 2. Draw $G_{0} \sim \mathrm{PY}(\beta, \gamma)$. (実際は最尤推定値) 3. For $v=1 \ldots V, \phi\left(w_{v}\right) \sim \mathcal{N}\left(0, I_{d}\right)$. 4. For $n=1 \ldots N$, - Draw $f_{n} \sim \mathrm{GP}(0, \mathrm{~K})$. - For $v=1 \ldots V, \alpha_{v}=\alpha_{0} G_{0}\left(w_{v}\right) e^{f_{n}\left(w_{v}\right)}$. - Draw $\boldsymbol{w} \sim \operatorname{Polya}(\boldsymbol{\alpha})$. ## 2.2 単語の分散表現 Milokov らによって提案された Word2Vec [8] は,分布仮説 [11] に基づいた,単語の意味的な関係性を捉えた分散表現を学習する確率モデルである.学習手法の一つである Continuous Bag-of-Words (CBOW) モデルは, $\delta$ を文脈空幅として,近傍の文脈単語集合 $C_{w_{t}}=\left.\{w_{t \pm i} \mid 1 \leq i \leq \delta\right.\}$ を入力とした時のターゲッ卜単語 $w_{t}$ の予測確率 $ p\left(w_{t} \mid C_{w_{t}}\right) \propto \exp \left(\eta\left(w_{t}\right)^{T} \tilde{\eta}\left(C_{w_{t}}\right)\right) $ を最大化することにより単語ベクトル $\eta\left(w_{t}\right)$ を学習する. ここで, $\tilde{\eta}\left(C_{w_{t}}\right):=\left|C_{w_{t}}\right|^{-1} \sum_{w \in C_{w_{t}}} \eta(w)$ は全文脈単語ベクトルの平均ベクトルを表す. ## 3 提案手法 ## 3.1 学習済み分散表現を用いた文書モデル 我々は,2.1 節で紹介した CSTM に,2.2 節で紹介した手法によって獲得される単語分散表現を導入することでモデルを構築する。まず,CBOW モデルによって意味的な関係性を捉えた単語分散表現を学習する。本研究では,特にトピック的な関係性 [12]を学習するため, 文脈窓幅を比較的大きい $\delta=10$ とし学習を行った. また, $V$ を語彙サイズとして,獲得した単語分散表現 $\eta\left(w_{1}\right), \eta\left(w_{2}\right), \ldots, \eta\left(w_{V}\right)$ に対し,次のように中心化・正規化を施す. $ \psi\left(w_{v}\right)=\tau S^{-\frac{1}{2}}\left.\{\eta\left(w_{v}\right)-V^{-1} \sum_{i} \eta\left(w_{i}\right)\right.\} $ ここで, $S$ は正規化定数であり, $ S=V^{-1} \sum_{i} \eta\left(w_{i}\right)^{T} \eta\left(w_{i}\right) $ である.また, $\tau$ はハイパーパラメータであり,本研究では $\tau=d^{-1 / 2}$ とした. 次に,持橋らと同様に,式 (5) から得られる単語分散表現からなる潜在空間上に,平均 0 , カーネル関数 $k\left(w_{i}, w_{j}\right)=\psi\left(w_{i}\right)^{T} \psi\left(w_{j}\right)$ のガウス過程に従う関数 $ f \sim \operatorname{GP}\left(0, \mathrm{~K}_{\psi}\right) $ を考える. しかし $f$ は原理的には無限次元であり,直接推定することは難しいため, Paisley ら [13] と同様に,単語の潜在空間上に文書の潜在座標を表す補助変数 $ u \sim \mathcal{N}\left(0, I_{d}\right) $ を導入する。このとき,単語の潜在座標をまとめて $\Psi=\left(\psi\left(w_{1}\right), \psi\left(w_{2}\right), \cdots \psi\left(w_{V}\right)\right)^{T}$ とおけば, $f=\Psi u$ の分布は $u$ を積分消去して $ f \mid \Psi \sim \operatorname{GP}\left(0, \Psi^{T} \Psi\right)=\operatorname{GP}\left(0, \mathrm{~K}_{\psi}\right) $ となり, $f$ が式 (7) と同じガウス過程に従うことになる。 よって,提案手法では,事前学習済みの単語分散表現を潜在空間上の単語座標とし,文書の意味を表現するガウス過程を,単語ベクトルと同じ潜在空間上にある文書ベクトル $u$ を用いて, $ f\left(w_{v}\right) \propto \psi\left(w_{v}\right)^{T} u $ と表現し,式 (3) と同様に $\alpha_{v}$ を $ \alpha_{v} \propto \alpha_{0} G_{0}\left(w_{v}\right) \exp \left(\psi\left(w_{v}\right)^{T} u\right) $ として,単語の確率を式 (1) の Polya 分布でモデル化する. ## 3.2 MCMC 法による学習 $N$ 個の文書をまとめて $\boldsymbol{D}=\left(\boldsymbol{y}_{1}, \boldsymbol{y}_{2}, \ldots, \boldsymbol{y}_{N}\right)$ とすると, $\alpha_{0}$ と $\alpha$ の同時分布は $ p\left(\alpha_{0}, \boldsymbol{\alpha} \mid \boldsymbol{D}\right) \propto \prod_{n} p\left(\boldsymbol{y}_{n} \mid \alpha_{0}, G_{0}, f_{n}\right) p\left(\alpha_{0}\right) p\left(f_{n} \mid \psi\right) $ であるが, $\alpha$ は式 (10) の文書ベクトル $u$ を通じてのみ変化するので,提案モデルにおける推定パラメー タの $\alpha_{0}$ と $\boldsymbol{u}=\left(u_{1}, u_{2}, \ldots, u_{n}\right)$ の同時分布は, $ p\left(\alpha_{0}, \boldsymbol{u} \mid \boldsymbol{D}\right) \propto \prod_{n} p\left(\boldsymbol{y}_{n} \mid \alpha_{0}, G_{0}, \psi, u_{n}\right) p\left(\alpha_{0}\right) p\left(u_{n}\right) $ と表される。モデルの学習には,持橋らと同様に局所解の問題のないランダムウォーク MH 法を用い 表 1 実験に用いた各コーパスの統計量. た. ${ }^{1)}$ 推定パラメータは,式 (11)の $\alpha_{0}$ と文書べクトル $u$ であり,それぞれ提案分布 $ \begin{aligned} \alpha_{0}^{\prime} & =\alpha_{0} \cdot \exp (z) \\ z & \sim \mathcal{N}\left(0, \sigma_{\alpha_{0}}^{2}\right) \\ u^{\prime} & \sim \mathcal{N}\left(u, \sigma_{u}^{2} I\right) \end{aligned} $ から候補を生成し,尤度比に従う採択確率 $ \begin{aligned} & \mathscr{A}\left(\alpha_{0}^{\prime}\right)=\min \left.\{1, \frac{\prod_{n} p_{n}\left(\boldsymbol{y}_{n} \mid \alpha^{\prime}\right) \mathrm{Ga}\left(\alpha_{0}^{\prime} \mid a_{0}, b_{0}\right)}{\prod_{n} p_{n}\left(\boldsymbol{y}_{n} \mid \alpha\right) \mathrm{Ga}\left(\alpha_{0} \mid a_{0}, b_{0}\right)}\right.\}, \\ & \mathscr{A}\left(u^{\prime}\right)=\min \left.\{1, \frac{p\left(\boldsymbol{y}_{n} \mid \alpha^{\prime}\right) p\left(u^{\prime} \mid 0, I_{d}\right)}{p\left(\boldsymbol{y}_{n} \mid \alpha\right) p\left(u \mid 0, I_{d}\right)}\right.\} \end{aligned} $ を用いて受理の判定を行った。本研究では,ランダムウォーク幅を, 予備実験の結果からそれぞれ $\sigma_{\alpha_{0}}=0.2, \sigma_{u}=0.01$ と置いて実験を行った. ## 4 実験 ## 4.1 コーパス 本研究では,英語コーパスの NIPS $^{2}$ ,日本語コー パスの CSJ コーパスと毎日新聞(2013 年度から 10,000 記事をランダムに選択)を用いて実験を行った. 日本語コーパスである CSJコーパスと毎日新聞に対しては, 前処理として $\mathrm{MeCab}^{3}$ )による分かち書き4)を行い,全てのコーパスにおいて,出現頻度が 5 以下の単語を学習データから除外した. 各コーパスの統計量を表 1 に示す. ## 4.2 予測パープレキシティ 性能の評価のため, 提案モデルと CSTM のパー プレキシティを計算した. Wallach ら [15] に従い, データの各文書のランダムな $80 \%$ の単語を用いてモデルを学習し, 残りの $20 \%$ の単語のパープレキシティを計算した。 提案手法と CSTM における各コーパスの予測パー プレキシティを表 2 に示す. 両モデルにおいて,潜 1)事後分布の勾配を使用する Hamiltonian MCMC 法 [14] も試みたが数值微分が必要であり,計算コストの高さから本研究ではランダムウォーク MH 法を用いて実験を行った. 2) https://cs.nyu.edu/ roweis/data.html 3) https://taku910.github.io/mecab/ 4)分かち書きの辞書には ipadic を用いた.表 2 各コーパスでのテストセットパープレキシティ. 図 1 提案モデルと CSTM における予測パープレキシティの推移. 在次元数を $10,20,50,100$ と変化させたうち最も良いスコアを示した。提案手法は,3つ全てのコーパスにおける予測パープレキシティで CSTM を下回り,より高い性能であることがわかる. また, 図 1 に提案モデルと CSTM におけるパープレキシティの推移を示す. 提案モデルは,学習済みの分散表現よりトピック的な関係性を事前情報として持つため, 全てのデータセットに対する学習において収束速度が CSTM を上回った。 ## 4.3 文書における上位単語・下位単語 提案モデルと CSTM は単語ベクトルと同じ空間上に文書ベクトルを考え,それらの内積を用いて単語の確率を操作する.そのため,単語ベクトルと文書ベクトルの内積から,文書で現れやすい単語とそうでない単語といった, 文書における単語の重要度を定量的に測ることができる. 例として,提案モデルと CSTM に対して,CSJ コーパスを用いて,「あなたの住んでいる町や地域について」というトピックの文書における内積スコアの上位単語・下位単語を計算し,表 3,4 に示した. 計算には, 文書ベクトルと, 学習に使用した語彙に含まれる全ての単語の単語ベクトルを用いた。 CSTM から計算される上位単語には,「ゲーム」や 「テープ」,「生地」といった文書のトピックとは関係のない語が含まれているが,提案モデルから計算 表 3 提案モデルを用いて,CSJコーパス中の「あなたの住んでいる町や地域について」の講演データにおける上位単語 (左)・下位単語 (右) それぞれ 30 単語. された上位単語のほとんどが,文書のトピックと関連を持った語であり,「駅」や「町」といったトピックに関連する単語に対して大きな値を示していることが確認できる。また,提案モデルから計算された下位単語についても, 「研究者」や「実験」, また,「音声」や「モーラ」など,文書のトピックに関連のない語に対して小さな値を示していることが確認できる。これは,CSTM と異なり,提案モデルが単語のトピック的関係性を事前知識として持つため,卜ピック的に類似した単語の集合を捉えた文書べクトルの推定が容易になったためと考える。 このように,提案モデルは,文書のトピックと関連する単語に対して適切に大きな確率を与え, 関連の低い単語に対しては小さな確率を与えることから,文書における単語の確率を柔軟に操作できていることがわかる.表 4 CSTMを用いて,CSJコーパス中の「あなたの住んでいる町や地域について」の講演データにおける上位単語 (左)・下位単語 (右) それぞれ 30 単語. ## 5 まとめと今後の展望 本研究では,学習済み単語分散表現を Continuous Space Topic Model に導入することで,単語の意味的な関係性を事前知識として与え,パープレキシティにおいて従来手法を上回り, 収束時間が短縮されたことを示した。また,文書における単語の重要度を観察し,従来手法よりも優れた結果であることを定性的に示した. 今後は, 本研究では使用しなかった Hamiltonian MCMC による最適化等を含めたモデルのより良い推定方法を検討していきたい。 ## 参考文献 [1] X. Wei, and W. Croft. LDA-Based Document Models for Ad-Hoc Retrieval. In Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, 178-85, 2006. [2] M. Marlin. Modeling User Rating Profiles for Collaborative Filtering. In Advances in Neural Information Processing Systems, 16:627-34, 2003. [3] T. Griffiths, M. Steyvers, and P. Smyth. The AuthorTopic Model for Authors and Documents. In Proceedings of the 20th Conference on Uncertainty in Artificial Intelligence, 487-94, 2004. [4] C. Lin, Y. He, R. Everson, and S. Ruger. Weakly Supervised Joint Sentiment-Topic Detection from Text. In IEEE Transactions on Knowledge and Data Engineering, 24 (6): 1134-45. 2012. [5] D. Blei, A. Ng, and M. Jordan. Latent Dirichlet Allocation. In Journal of Machine Learning Research, 3:993-1022, 2003. [6] 持橋大地, 吉井和佳, 後藤真孝. ガウス過程に基づく連続空間トピックモデル. 情報処理学会研究報告 2013-NL-213(11), 1-8, 2013. [7] R. Das, M. Zaheer, and C. Dyer. Gaussian LDA for Topic Models with Word Embeddings. In Proceedings of the 53nd Annual Meeting of the Association for Computational Linguistics, 1:795-804, 2015. [8] T. Mikolov, K. Chen, G. Corrado, and J. Dean. Efficient Estimation of Word Representations in Vector Space. In Proceedings of the International Conference on Learning Representations, 2013. [9] G. Doyle and C. Elkan Accounting for Burstiness in Topic Models. In Proceedings of the 26th Annual International Conference on Machine Learning, 281288, 2009. [10] C. Rasmussen and C. Williams. Gaussian Processes for Machine Learning, Cambridge, MA, USA:MIT Press, 2006. [11] S. Harris. Distributional Structure. Word \& World 10 (2-3): 146-62, 1954. [12] B. Mohit, K. Gimpel, and K. Livescu. Tailoring Continuous Word Representations for Dependency Parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, 2:809-15, 2014. [13] J. Paisley, C. Wang, and D. Blei. The Discrete Infinite Logistic Normal Distribution. In Bayesian Analysis, 7(2):235-272, 2012. [14] M. Neal. MCMC using Hamiltonian Dynamics. Handbook of Markov Chain Monte Carlo, 2(11), 2, 2011 . [15] H. Wallach, I. Murray, R. Salakhutdinov, and D. Mimno. Evaluation Methods for Topic Models. In Proceedings of the 26th Annual International Conference on Machine Learning, 1105-1112, 2009.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-8.pdf
# 会話によるニュース記事伝達のための談話構造解析 1 早稲田大学 takatsuepcl.cs.waseda.ac.jp matsuyama@pcl.cs.waseda.ac.jp 2 内外切抜通信社 ando@naigaipc.co.jp koba@waseda.jp ## 1 はじめに 文間の依存構造を解析する手法および,結束性の高い文のまとまり(チャンク)を検出する手法と談話関係を分類する手法を提案する。 一貫性のある要約 $[1,2,3]$ や対話 $[4,5]$ を実現するために,談話構造が制約として用いられる。我々は,ニュース記事の内容を効率的に伝える音声対話システム [6] においても,話を破綻させないために談話構造に従った情報伝達が重要であると考え,文を談話単位として,日本語のニュース記事に対して談話依存構造を付与したデータセットを構築した [7]. このデータセットは, ウェブニュースのクリッピングの専門家が 1200 個のニュース記事に対して 「係り先」「談話関係」「チャンク」のアノテーションを行ったものである。係り先は,ルートノードから親ノード文までの情報が対象の文を理解するうえで必要最小限の情報になるように付与したものである.談話関係は,子ノード文が親ノード文に対してどのような意味的関係にあるかを分類したものである. チャンクは,親ノード文の内容を正しく理解するために欠かせない情報が子ノード文に書かれている場合,これらをまとめて提示すべきであることを表したものである. 本研究では,「係り先」「談話関係」「チャンク」を推定するモデルを提案し,作成したデータセットを用いて評価した結果を報告する. 文間の係り受け解析については,BERT [8] による文の埋め込み表現を双方向の GRU [9] に与え, head selection モデル [10] により係り先を推定するモデルを提案する.談話関係分類とチャンク検出については,談話依存構造木をルートノードから葉ノードまでの文系列に分解し,各タスクの系列ラベリング問題をマルチタスクで学習するモデルを提案する。 本稿の構成は次の通りである.2 章で関連研究に ついて述べる. 3 章で文の係り先を推定するモデルについて説明する. 4 章でチャンクと談話関係を推定するモデルについて説明する. 5 章でデータセット [7] を用いてモデルの性能を評価した結果を報告する. 6 章でまとめと今後の展望について述べる. ## 2 関連研究 談話構造解析は,文章を構成する文や節の間に成り立つ関係を解析する自然言語処理の基本的なタスクである。談話構造解析の結果は,文書要約 [3] や質問応答 [11],機械翻訳 [12],評判分析 [13] などの下流タスクのアプリケーションで用いられる [14]. 談話構造解析のための代表的なデータセットとして,RST Discourse Treebank [15] があり,文章から修辞構造木を自動で構築する手法が提案されてきた $[16,17,18]$. 一方で,文書要約 $[1,2,19,20]$ のようなタスクへの応用を考えた場合,修辞構造木のような句構造よりも談話単位間の親子関係を直接表せる依存構造の方が望ましいと考えられ,修辞構造木を談話依存構造木へ変換する手法が提案された [19,21]. また,変換アルゴリズムによって生成される談話依存構造木の性質が異なることから [22], Yang らは,科学論文のアブストラクトに対して人手で EDU 間の依存構造と談話関係をアノテーションする方法を提案し,データセットとして SciDTB を構築した [23].また,Yang らは,EDU 間の依存構造を解析する手法として, transition-based の手法 [24] と graph-based の手法 [21] を比較し,SciDTB を用いた場合,transition-based の手法の方が高い性能を示すことを確認した。単語間の係り受け解析においては, head selection モデルの有効性が確認されており [10],本研究では,これを文間の係り受け解析モデルへ拡張する。 近年,自然言語処理の分野では,ラベルなしの膨大なテキストデータを使用して事前学習した言語モ 図 1 係り先推定モデル デルを下流タスクでファインチューニングするアプローチが注目されている [25]. 談話関係分類タスクでも,BERT [8] が暗黙的な談話関係の分類に有効であることが確認されており [26, 27], 本研究でも BERT 由来の文や単語の特徴量を利用する。 ## 3 文間係り受け解析 提案モデルの概略図を図 1 に示す. 記事の夕イトルをROOTとして加えた文系列 $S=\left(s_{0}=\right.$ ROOT, $\left.s_{1}, \ldots, s_{N}\right)$ を入力とする. 文の単語系列を BERT [8] に与え [CLS] トークンに対応する最上位層の埋め込み表現を得る. これと文の補助情報(文書内文位置,文書内段落位置,段落内文位置)の埋め込み表現を結合したべクトルを双方向の GRU [9] に与える. $i$ 番目の文に対応する GRU の順方向と逆方向の隠れ層の出力を結合したべクトルを $\boldsymbol{h}_{i}$ とする. head selection モデル [10] に基づき $s_{j}$ が $s_{i}$ の係り先である確率 $P_{\text {head }}\left(s_{j} \mid s_{i}, S\right)$ を以下の式で計算する. $ \begin{aligned} P_{\text {head }}\left(s_{j} \mid s_{i}, S\right) & =\frac{\exp \left(g\left(\boldsymbol{h}_{j}, \boldsymbol{h}_{i}\right)\right)}{\sum_{k=0}^{N} \exp \left(g\left(\boldsymbol{h}_{k}, \boldsymbol{h}_{i}\right)\right)} \\ g\left(\boldsymbol{h}_{j}, \boldsymbol{h}_{i}\right) & =\boldsymbol{v}_{h}^{\top} \tanh \left(\boldsymbol{U}_{h} \boldsymbol{h}_{j}+\boldsymbol{W}_{h} \boldsymbol{h}_{i}\right) \end{aligned} $ $v_{h}, U_{h}, W_{h}$ は重みパラメータである. ## 4 談話関係分類とチャンク検出 談話依存構造木をルートノードから葉ノード(以下, root-to-leaf) までの文系列に分解し,この文系列に対する系列ラベリングにより,談話関係とチャンクラベルを推定する. 提案モデルの概略図を図 2 に示す、マルチタスク学習の全体損失関数 $L_{\text {all }}$ を談話関係分類タスクの損失関数 $L_{r}$ とチャンク検出タスクの損失関数 $L_{c}$ の重み付き和で定義する. $ L_{\text {all }}=\lambda_{r} \times L_{r}+\lambda_{c} \times L_{c} $ $\lambda_{r}$ と $\lambda_{c}$ は各タスクの重み係数である. 図 2 談話関係・チャンク推定モデル 図 3 Sentence Encoder 談話関係は,子ノード文が親ノード文に対してどのような意味的関係にあるかを分類したものである. ラベルとして「開始」「結果」「原因」「背景」「呼応」「対比」「転換」「例示」「結論」「補足」があり,これらを softmax で識別する。 チャンクは,親ノード文の内容を正しく理解するために欠かせない情報が子ノード文に書かれている場合,これらをまとめて提示すべきであることを表した文の集合である. チャンクのラベルとして, チャンクの開始を表す “B”,チャンクの内側を表す “I”,チャンクの終了を表す “E”,チャンクの外側を表す“O”を定め,これらを softmax で識別する。 談話関係を識別する手掛かりとして接続詞などの単語の情報が有効だと考えられる. そこで, Sentence Encoder では, BERT [8] の単語埋め込み表現と単語の補助情報の埋め込み表現を結合したものに対して self-attention [28] を計算する。 さらに,得られたべクトルと文の補助情報(文書内文位置,文書内段落位置,段落内文位置,談話依存構造木における深さ)の埋め込み表現を結合する.また,ネガティブな事象の原因はネガティブであることが多く,ポジティブな事象の原因はポジティブであることが多い [29] というように感情極性情報も談話関係の判断に有効だと考え,単語の補助情報として品詞や活用形などの他,単語の感情極性情報を与える。 表 1 文間係り受け解析性能 : 位置情報の効果 図 4 文間係り受け解析性能: ジャンルごとの性能 ## 5 実験 ニュース記事に対して談話依存構造を付与したデータセット [7]を使用した. このデータセットは, 15 文から 25 文のニュース記事 1200 個(6 ジャンル 200 記事ずつ)に対して,「係り先」「談話関係」「チャンク」を付与したデータセットである. BERT の事前学習モデルとして,情報通信研究機構が公開しているモデルを用いた1). 使用した BERT モデルは,日本語 Wikipedia の全記事に対して,Juman 辞書を用いた $\mathrm{MeCab}^{2)}$ [30] により形態素解析を行ったテキストを入力として,語彙数が 10 万語からなる $\mathrm{BERT}_{\mathrm{BASE}}[8]$ を学習したモデルである. 単語の感情極性の辞書として,『日本語評価極性辞書』 $[31,32]^{3}$ ,『単語感情極性対応表』 $[33]^{4)}$ ,『意見(評価表現)抽出ツール用モデル』)の評価表現辞書および極性反転語の辞書を用いた。 評価は 10 分割交差検定で行い,ジャンルごとに記事数の 9/10 を訓練データ(1080 記事),1/10をテストデータ(120 記事)として分割した. ## 5.1 文間係り受け解析性能の評価 文の補助情報として文の位置情報を加えたときと加えなかったときの Accuracyを表 1 に示す. 文の位置情報を加えたモデルは,位置情報を加えなかったモデルに比べて, Accuracy が 5\%以上高く,文の係り先の推定において,文の位置情報が有効であるこ  図 5 文間係り受け解析性能: 記事の文数ごとの性能 とが分かった. 記事ごとに計算した Accuracy の分布をジャンルごとに箱ひげ図で表したものを図 4 に示す. ジャンルごとに比較するとスポーツ記事が最も高い性能を示した。スポーツ記事は試合の流れなどが線形につながった分岐の少ない木構造が多いため,係り先が推定しやすかったと考えられる。 記事の文数ごとの記事数および,各文数の記事ごとに計算した Accuracy の平均値を図 5 に示す. デー 夕数の多い 15 文や 16 文の性能が他に比べて高い傾向を示したが,データ数の少ない 20 文以上の文数の記事においても Accuracy の減少は 5\%程度にとどまっていた。 ## 5.2 談話関係分類性能の評価 データセットにおける談話関係の数に偏りがあるため,1200 記事のデータを全て使用すると低頻度の談話関係の識別性能が低くなる.そこで,デー 夕数の偏りの影響を抑えるため,談話関係のそれぞれについて,対象の談話関係を 1 つ以上含む記事の root-to-leaf 文系列をデータセットとした.各談話関係を含む記事の数を以下に示す。「結果」:250,「原因」:437,「背景」:800,「呼応」:578,「対比」:459,「転換」:205,「例示」:396,「結論」:685. この他,「開始」と「補足」があるが,「開始」は係り先がルートノードである文に自動的に付与され,「補足」は上記談話関係に分類されなかったものに対して付与されるため,これらは評価対象から外した。 各談話関係の分類性能(F 值)を表 2 に示す. チャンク検出とのマルチタスク学習の結果は, $\left(\lambda_{r}, \lambda_{c}\right)=(0.9,0.1),(0.8,0.2), \ldots,(0.1,0.9)$ のうち,最大のものを示している. シングルタスクモデルに比ベてマルチタスクモデルの方が高い性能を示した. 表 2 談話関係分類性能(F 値) 図 6 談話関係分類性能: ジャンルごとの性能 談話関係ごとに比較すると,「対比」が最も高い性能を示した.「対比」が付与されている文は,“一方” や“ただ”のような接続詞で始まることが多く,これらが手掛かりになったと考えられる。一方,「例示」 を表す接続表現として“例えば”や“具体的には” などが挙げられるが,実際に「例示」がアノテーションされた文は,このような接続表現を伴うものが少なく,「補足」との区別がつきにくかったため,「例示」の分類性能は低かったと考えられる。 ジャンルごとの各談話関係の分類性能を図 6 に示す. データセットにおいて,国際記事は他のジャンルに比べて「原因」が多く,スポーツ記事は「転換」 が少ないというように,ジャンルごとの談話関係の出現頻度も性能に影響していると考えられる。 ## 5.3 チャンク検出性能の評価 チャンクを少なくとも 1 つ含む 595 記事を使用した. データセット [7]には,チャンクとして,強いチャンクと弱いチャンクの 2 種類がアノテーションされているが,これらを区別せずに推定した. チャンク検出性能とチャンク文検出性能の 2 つの観点で評価した. チャンク検出性能は,チャンクの範囲が全て合っているものを正解としたときの $\mathrm{F}$ 值である。チャンク文検出性能は,B,E ラベルを I ラベルに集約し,チャンクに含まれる文か否かの 2 值表 3 チャンク検出性能( $\mathrm{F}$ 值) 図 7 チャンク検出性能: ジャンルごとの性能 ラベルに修正したときの,I ラベルに関する $\mathrm{F}$ 值である。なお,チャンクは 2 文以上からなるため,I ラベルが単体で出現していた場合は,ルールでO ベルに修正した. チャンクをシングルタスクで学習したときの結果と,チャンクと談話関係をマルチタスクで学習したときの結果( $\lambda_{r}=0.2, \lambda_{c}=0.8 )$ を表 3 に示す. チャンクと談話関係をマルチタスクで学習したモデルの方が高い性能を示した. 談話関係を一緒に学習することで,「対比」関係の文が弱いチャンクになりやすいなどの傾向を学習できたためだと考えられる。 ジャンルごとの性能を図 7 に示す. 国際記事は,弱いチャンクに出現しやすい“一方”や“ただ”などの接続詞が多く出現することから,チャンク検出性能が他に比べて高かったと考えられる.スポーツ記事は,試合の流れなどの長いチャンクが多く,チャンクを部分的には当てられているが,チャンクの開始から終わりまでを当てるのが難しかったため, チャンク文検出性能に比べてチャンク検出性能が低かったと考えられる。 ## 6 おわりに 文の「係り先」「談話関係」「チャンク」を推定するモデルを提案し,日本語のニュース記事に対してこれらをアノテーションしたデータセット [7] を用いて性能を評価した。 今後は,談話構造を制約とした要約 [34] や対話のアルゴリズムについて検討する。 謝辞本研究は,JST START(JPMJST1912)の支援を受けたものである. ## 参考文献 [1]Yuta Kikuchi, Tsutomu Hirao, Hiroya Takamura, Manabu Okumura, and Masaaki Nagata. Single document summarization based on nested tree structure. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 315-320, 2014. [2]Tsutomu Hirao, Masaaki Nishino, Yasuhisa Yoshida, Jun Suzuki, Norihito Yasuda, and Masaaki Nagata. Summarizing a document by trimming the discourse tree. IEEE/ACM Transactions on Audio, Speech and Language Processing, Vol. 23, No. 11, pp. 2081-2092, 2015. [3]Jiacheng Xu, Zhe Gan, Yu Cheng, and Jingjing Liu. Discourseaware neural extractive text summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5021-5031, 2020. [4]Song Feng, Kshitij Fadnis, Q. Vera Liao, and Luis A. Lastras. DOC2DIAL: a framework for dialogue composition grounded in business documents. In Proceedings of the 33rd Conference on Neural Information Processing Systems, p. 1. [5]Mihai Rotaru and Diane J. Litman. Exploiting discourse structure for spoken dialogue performance analysis. In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing, pp. 85-93, 2006. [6]高津弘明, 福岡維新, 藤江真也, 林良彦, 小林哲則. 意図性の異なる多様な情報行動を可能とする音声対話システム.人工知能学会論文誌, Vol. 33, No. 1, pp. 1-24, 2018. [7]高津弘明, 安藤涼太, 本田裕, 松山洋一, 小林哲則. ニュー ス記事に対する談話構造と興味度のアノテーション〜 ニュース対話システムのパーソナライズに向けて〜. 言語処理学会第 27 回年次大会発表論文集, 2021. [8]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [9]Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1724-1734, 2014. [10]Xingxing Zhang, Jianpeng Cheng, and Mirella Lapata. Dependency parsing as head selection. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 665-676, 2017. [11]Peter Jansen, Mihai Surdeanu, and Peter Clark. Discourse complements lexical semantics for non-factoid answer reranking. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 977-986, 2014. [12]Junxuan Chen, Xiang Li, Jiarui Zhang, Chulun Zhou, Jianwei Cui, Bin Wang, and Jinsong Su. Modeling discourse structure for document-level neural machine translation. In Proceedings of the 1st Workshop on Automatic Simultaneous Translation, pp. 30-36, 2020. [13]Baptiste Chardon, Farah Benamara, Yannick Mathieu, Vladimir Popescu, and Nicholas Asher. Measuring the effect of discourse structure on sentiment analysis. In Proceedings of the 14th international conference on Computational Linguistics and Intelligent Text Processing, pp. 25-37, 2013. [14]Shafiq Joty, Giuseppe Carenini, Raymond T. Ng, and Gabriel Murray. Discourse analysis and its applications. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Tutorial Abstracts, pp. 12-17, 2019. [15]Lynn Carlson, Daniel Marcu, and Mary Ellen Okurovsky. Building a discourse-tagged corpus in the framework of rhetorical structure theory. In Proceedings of the 2nd SIGdial Workshop on Discourse and Dialogue, pp. 1-10, 2001. [16]Longyin Zhang, Yuqing Xing, Fang Kong, Peifeng Li, and Guodong Zhou. A top-down neural architecture towards textlevel parsing of discourse rhetorical structure. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6386-6395, 2020. [17]Nan Yu, Meishan Zhang, and Guohong Fu. Transition-based neural RST parsing with implicit syntax features. In Proceed- ings of the 27th International Conference on Computational Linguistics, pp. 559-570, 2018. [18]Qi Li, Tianshi Li, and Baobao Chang. Discourse parsing with attention-based hierarchical neural networks. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 362-371, 2016. [19]Tsutomu Hirao, Yasuhisa Yoshida, Masaaki Nishino, Norihito Yasuda, and Masaaki Nagata. Single-document summarization as a tree knapsack problem. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1515-1520, 2013 [20]Yasuhisa Yoshida, Jun Suzuki, Tsutomu Hirao, and Masaaki Nagata. Dependency-based discourse parser for single-document summarization. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 18341839, 2014. [21]Sujian Li, Liang Wang, Ziqiang Cao, and Wenjie Li. Text-level discourse dependency parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 25-35, 2014. [22]Katsuhiko Hayashi, Tsutomu Hirao, and Masaaki Nagata. Empirical comparison of dependency conversions for RST discourse trees. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 128-136, 2016. [23]An Yang and Sujian Li. SciDTB: Discourse dependency treebank for scientific abstracts. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 444-449, 2018. [24]Yizhong Wang, Sujian Li, and Houfeng Wang. A two-stage parsing method for text-level discourse analysis. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 184-188, 2017. [25]XiPeng Qiu, TianXiang Sun, YiGe Xu, YunFan Shao, Ning Dai, and XuanJing Huang. Pre-trained models for natural language processing: A survey. Science China Technological Sciences, Vol. 63, No. 10, pp. 1872-1897, 2020. [26]Yudai Kishimoto, Yugo Murawaki, and Sadao Kurohashi. Adapting BERT to implicit discourse relation classification with a focus on discourse connectives. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 1152-1158, 2020. [27]Wei Shi and Vera Demberg. Next sentence prediction helps implicit discourse relation classification within and across domains. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5790-5796, 2019. [28]Zhouhan Lin, Minwei Feng, Cícero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou, and Yoshua Bengio. A structured self-attentive sentence embedding. In Proceedings of the 5th International Conference on Learning Representations, pp. 1$15,2017$. [29]Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Takuya Kawada, Stijn De Saeger, Jun’ ichiKazama, Yiou Wang. Why question answering using sentiment analysis and word classes. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 368-378, 2012. [30]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004. [31]Nozomi Kobayashi, Kentaro Inui, Yuji Matsumoto, Kenji Tateishi, and Toshikazu Fukushima. Collecting evaluative expressions for opinion extraction. In Proceedings of the 1st International Joint Conference on Natural Language Processing, pp. 596-605, 2004. [32]東山昌彦, 乾健太郎, 松本裕治. 述語の選択選好性に着目した名詞評価極性の獲得. 言語処理学会第 14 回年次大会発表論文集, pp. 584-587, 2008. [33]Hiroya Takamura, Takashi Inui, and Manabu Okumura. Extracting semantic orientations of words using spin model. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics, pp. 133-140, 2005. [34]高津弘明, 安藤涼太, 本田裕, 松山洋一, 小林哲則. 談話構造制約付きパーソナライズド抽出型要約. 言語処理学会第 27 回年次大会発表論文集, 2021.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P5-9.pdf
# 疑似正解データを利用した修辞構造解析器の改善 小林尚輝 $\dagger$ 平尾努 $\S$ 上垣外英剛 $\dagger$ 奥村学 $\dagger$ 永田昌明 $\S$ †東京工業大学 §NTTコミュニケーション科学基礎研究所 \{kobayasi@lr., kamigaito@lr., oku@\}pi.titech.ac.jp \{tsutomu.hirao.kp, masaaki.nagata.et\}@hco.ntt.co.jp ## 1 はじめに 文書はつながりのある言語単位(節や文,段落など)から構成されており,言語単位間の関係を明らかにすることを談話構造解析という。談話構造が計算機により自動的に解析できるようになれば,要約や翻訳など,文書を対象とした下流タスクの性能向上が期待できる. 修辞構造理論 [1] は談話構造を表現する手法の一つであり, Elementary Discourse Unit (EDU) と呼ばれる節相当の談話単位を終端ノードとした句構造木として文書を表す. 非終端ノードは連続する EDUから構成されるテキストスパン(以降, スパン)と対応し,子ノード間の核性(従属関係) ラベル,関係 (修辞関係) ラベル1)が割り当てられる. 多くの修辞構造解析器は, 1) 木構造の推定 2)隣接するスパンの核性ラベルの推定 3) 隣接するスパンの関係ラベルの推定の 3 つの副問題を教師あり学習を用いたモデルで解くことで実現される. 近年,ニューラルネットワークを用いることで修辞構造解析の性能が大きく改善されることが報告されている $[2,3,4,5]$. スパンを再帰的に分割することでトップダウンに木を構築する Span Based Parser (SBP) [3] は,木の構造および核性ラベルの推定において高い性能を達成しているが,関係ラベルの推定にはまだ改善の余地がある.これは, 18 種類の関係ラベルの分類を学習するにはデータサイズが不十分であることが原因である.現存する最大規模のコー パスである RST-DT [6] でさえ 385 文書しかなく,十分な規模とは言い難い. しかし, 修辞構造を文書に付与するためには専門知識と時間を要するため,人手でデータを増やすことは容易ではない. こうした問題を解決するため,ニューラル機械翻訳で提案された逆翻訳による疑似正解データの活用 [7] にヒントを得て,既存の修辞構造解析器を用い -\mathrm{S}$, $\mathrm{S}-\mathrm{N}, \mathrm{N}-\mathrm{N}\}$ の 3 通り,関係ラベルは 18 通り存在する. } 図 1 重複する部分木(網掛け部分)の抽出 て自動的に作成された大規模な疑似正解データを用いて SBP を事前学習 (pre-training) し,RST-DT を用いて追学習 (fine-tuning) することで関係ラベルの推定性能を改善する枠組みを本稿では提案する。また,疑似正解データを大量かつ高品質に獲得するために, 図 1 に示されるように複数の解析器が出力する木の間で重複する部分木を疑似正解データとして効率よく抽出するアルゴリズムを提案する。 RST-DT を用いた実験では,提案手法はSBP の関係ラベルの推定精度を大きく向上させ,核性と関係ラベルの両方を考慮した評価指標である Full において世界最高性能を達成した。 ## 2 関連研究 一般に修辞構造解析器は教師あり学習の枠組みで訓練され, 解析方法としては遷移型とトップダウン型がある。遷移型では,人手で設計された特徴量を用いる手法 [8] と係り受け解析器から得られた特徴ベクトルを用いる手法 [2] がある。また,BERT の 図 2 提案手法における学習の流れ 派生である SpanBERT により埋め込まれた特徴べクトルを用いる手法 [5] は,現時点で最も良い性能を達成している.トップダウン型では,ポインター ネットを利用してスパンを分割し木を構築する手法 $[4,9]$ とスパンを再帰的に 2 つに分割することで木を構築する手法 [3] がある. 修辞構造解析は RST-DT を正解データとして学習されるが,RST-DT に含まれる文書は 385 文書のみである. したがって,データ不足を解決するための手法が盛んに研究されており, 修辞構造が付与された複数言語のデータセットを使う手法 $[10,11]$, 感情分類を学習したモデルを用いて修辞構造木を構築する手法 [12,13], 修辞構造に近い特性をもつ複数のタスクを同時学習する手法 [14] がある。しかし, これらの手法は追加のコーパスを必要とする. 追加のコーパスを必要としない手法として,既存の 2 つの修辞構造解析器から得られた木の間で合意率が一定のしきい値を超えた木を擬似データとして利用する手法 [15] がある. しかし, この手法の効果は低頻度ラベルに限定的である。 ## 3 提案手法 ラベルなしデータセットに既存の分類器を用いてラベルを付与し, 疑似正解データセットとして分類機を再学習する手法に Self-training や Co-training がある.ラベルを付与する際に,複数の分類器の出力間で一致を取ることで疑似正解データセットの質を保証するが,修辞構造解析が文書を対象とするタスクであるため,木の全体における一致が得られる文書は多くない.また,疑似正解データセットには,正解データセットに含まれるラベルの出現頻度における偏りがより強く反映される. これらの問題点を解決するために提案法は,1) 複数の解析器の出力する木の間で重複する部分木を擬似正解データとすることで信頼性の高いデータを大規模に構築し,2) 疑似正解データで事前学習した解析器を正解データで追学習することで疑似正解デー タのラベルの偏りが引き起こす影響を緩和する。 提案法の概要を図 2 に示す. まず,正解データをもとに学習された複数の解析器を用いて修辞構造木つき文書データセットを得る。次に,得られた修辞構造木から,重複する部分木を抽出することで疑似正解データセットを得る. 最後に,疑似正解データセットによる事前学習および正解データセットによる追学習により解析器を訓練する。 ## 3.1 疑似正解データの獲得方法 複数の解析器が出力した修辞構造木の間で一致するすべての部分木を抽出する線形時間アルゴリズムを Algorithm 1 に示す. ${ }^{2}$ 修辞構造木は入れ子状のラベル付きスパンとして表現され,2分木であるため非終端ノードは左右の子スパンを持つ. 終端ノードはスパンの長さが 1であることで判定される. 関数 Agree は与えられたスパンに含まれる部分木が重複した部分木であるかどうかを判定し, state にスパンをキーとしてその判定結果 $c_{\text {agree }}$ を保持する. 任意のスパンが表す部分木が目的の重複した部分木であるかどうかを確認するためには,そのスパンの左右の子スパンが共に重複した部分木であり, かつ,そのスパン自身が全ての修辞構造木に含まれることを確認すれば良い. 左右の子スパンに対しては,再帰的に関数 Agree を適用することで,自身が全ての修辞構造木に含まれることは,スパンの出現頻度の辞書 freq の値と修辞構造木の数 $k$ の一致により判定する。 次に,重複した部分木を関数 Extract によって抽出し, subtrees に追加する. 深さ優先で木の探索を行い,各スパンに対して関数 Agreeにより求めた $c_{\text {agree }}$ が真であればそのスパンを subtrees に追加し引き返す.これにより,包含関係にある部分木は最大の木のみが抽出される.また,抽出される木の大きさが  $l_{\min }$ より小さい場合,文書よりも極端に小さな木となるため,学習の役に立たない可能性を考え抽出しない. 一方で, $l_{\max }$ より大きい場合は解析器の学習時間が長くなるため, 左右の子スパンに対して再帰的に探索を行うことでより小さい木を抽出する. ## 3.2 解析器の選定 本研究では SBP の性能改善を目的とするため,疑似正解データの構築に利用する解析器には SBP とは異なる特性をもつ Two-Stage Parser (TSP) [8] を使用した. TSP は統計的モデルにおいて最も高性能であり, 特に, 関係ラベルの正解傾向が SBP とは異なるため,TSPを利用して構築した疑似正解データを事前学習に用いることで,SBP の関係ラベルの推定性能の改善が期待できる. ## 4 実験 ## 4.1 データセット 正解データセットとして RST-DT [6] を使用した. RST-DT は学習データ 347 文書とテストデータ 38 文書に分割されており, 従来研究 [16] に従い学習デー タから開発データ 40 文書を分割した. EDU に関しては正解の分割を利用した。 疑似正解データセットの作成に用いる文書デー タとしては CNNコーパス [17]を使用した. EDU の分割には Neural EDU Segmenter ${ }^{3)}$ を使用し, Stanford CoreNLP toolkit ${ }^{4}$ を用いて前処理を行った. 作成された疑似正解データセットに含まれる木の数およびスパンの数を表 1 に示す. 提案法である部分木を使用する Agreement Sub Tree (AST) の他に,単一の解析器により木を付与した Document Tree (DT),複数の解析器の出力が完全に一致した木からなる Agreement Document Tree (ADT) を比較する. ## 4.2 パラメータ 抽出する木の大きさ: 最大 $l_{\text {max }}$ は RST-DT に含まれる最大の木をもとに 240 とし,最小 $l_{\min }$ は 5 から 10 の間で実験を行い,開発データにおいて最も良い性能であった 9 を選択した。 Span Based Parser (SBP $)^{5}$ : 基本的なパラメータは従来の値をそのまま利用し,隠れ状態の次元数のみ 500 次元へと変更した. また, 事前学習は 5 epochs,追学習は 10 epochs の学習を行った.SBP は文書から段落,段落から文,文から EDU の 3 段階に分けて解析器を学習するD2P2S2Eにより最も良い性能を達成しているが,本実験では D2E に対応する EDU を葉とした文書の木を構築する解析器のみを学習する.しかし,解析する際に文と段落の境界を優先的に分割する事により D2P2S2E に近い設定となるよう工夫した。解析時は 5 つの解析器のアンサンブルを行うが,大規模データセットを用いた事前学習に  表 2 Micro-averaged $\mathrm{F}_{1}$ による性能比較 は時間がかかる.そこで,事前学習された 1 つ解析器を初期值として,異なる5つのモデルを追学習により学習した。 Two-Stage Parser (TSP) ${ }^{6}$ : SVM の最適化に dual coordinate descentを用いているため, 初期値を変化させることで複数の解析器を得て, 疑似正解データセットの作成に用いた. 解析器の数 $k$ は 4 とした. ## 4.3 評価指標 従来研究 [18] に従い, 正解スパンと解析器の出力スパン間の micro-averaged $F_{1}$ によりスパン (Span),核性 (Nuc), 関係ラベル (Rel), 核性・関係ラベル (Full)を評価する。 ## 4.4 実験結果 表 2 に評洒結果を示す。疑似正解データを用いないSBP と比較して,部分木を利用する AST のゲインが最も大きく, Rel, Full がそれぞれ $3.2,3.0$ ポイントであった. 一方, ADT は得られるデータサイズが小さいためほとんど差がなかった. DT も AST と同様にゲインは得られたが,AST ほど大きくはない。 さらに,学習時間は表 1 におけるスパンの数に比例するため, AST の 4 倍の学習時間が必要となる. これらの結果より, 複数の解析器の出力を部分木での重複を見て疑似正解データとすることは性能改善に有効であり, 学習時間の短縮にも役立つ. 一方, TSP w/ SpanBERT と比較すると, Nuc, Rel ではやや劣るものの Full では勝り, 世界最高性能を達成した.これは,提案手法における核性ラベルと関係ラベルの正解の一貫性が高いことを示している. AST を対象としデータサイズを変化させた際の性能の変化を図 3 に示す. Span, Nuc には変化がほとんどなく,Rel, Full のみデータサイズに比例して性 6) https://github.com/yizhongw/StageDP 図 3 データサイズによる性能の変化 図 4 関係ラベルごとの性能比較 能が向上していることから,データを増やすことで関係ラベルの推定性能はさらに改善することが期待できる。 さらに,疑似正解データを構築するための解析器として TSP w/SpanBERTを用いれば性能改善はより顕著になるものと期待できる。 10 種類の関係ラベルを例としたラベルごとの性能を図 4 に示す. 提案した疑似正解データによる学習は,TSP の推定性能が高くSBP の推定性能が低いラベル(例えば EXPL, COND, MANN など)において大きく性能を向上させることを確認した. ## 5 おわりに 本研究では, ニューラル修辞構造解析器のデータ不足を解消するために. 複数の解析器の間で一致する部分木を疑似正解データとし,それを用いて事前学習された解析器を正解データにより追学習する枠組みを提案した。部分木を用いた疑似正解データは木全体を用いる場合と比較して高い性能を達成し, かつ短い時間で学習できる利点を示した. また,疑似正解データの作成に異なる分類器および解析手法に基づく解析器を使用することで,関係ラベルの推定性能を大きく向上させた. ## 参考文献 [1]W.C. Mann and S.A Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87190, USC/ISI, 1987. [2]Nan Yu, Meishan Zhang, and Guohong Fu. Transition-based neural RST parsing with implicit syntax features. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 559-570, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [3]Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Top-down rst parsing utilizing granularity levels in documents. In Proceedings of the 2020 Conference on Artificial Intelligence for the American, pp. 8099-8106, New York, America, September 2020. [4]Xiang Lin, Shafiq Joty, Prathyusha Jwalapuram, and M Saiful Bari. A unified linear-time framework for sentence-level discourse parsing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4190-4200, Florence, Italy, July 2019. Association for Computational Linguistics. [5]Grigorii Guz and Giuseppe Carenini. Coreference for discourse parsing: A neural approach. In Proceedings of the First Workshop on Computational Approaches to Discourse, pp. 160-167, Online, November 2020. Association for Computational Linguistics. [6]Lynn Carlson, Daniel Marcu, and Mary Ellen Okurovsky. Building a discourse-tagged corpus in the framework of Rhetorical Structure Theory. In Proceedings of the Second SIGdial Workshop on Discourse and Dialogue, 2001. [7]Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. [8]Yizhong Wang, Sujian Li, and Houfeng Wang. A two-stage parsing method for text-level discourse analysis. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 184-188, Vancouver, Canada, July 2017. Association for Computational Linguistics. [9]Longyin Zhang, Yuqing Xing, Fang Kong, Peifeng Li, and Guodong Zhou. A top-down neural architecture towards textlevel parsing of discourse rhetorical structure. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6386-6395, Online, July 2020. Association for Computational Linguistics. [10]Chloé Braud, Barbara Plank, and Anders Søgaard. Multiview and multi-task training of RST discourse parsers. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 1903-1913, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [11]Zhengyuan Liu, Ke Shi, and Nancy Chen. Multilingual neural RST discourse parsing. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6730-6738, Barcelona, Spain (Online), December 2020. In- ternational Committee on Computational Linguistics. [12]Patrick Huber and Giuseppe Carenini. Predicting discourse structure using distant supervision from sentiment. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 2306-2316, Hong Kong, China, November 2019. Association for Computational Linguistics. [13]Patrick Huber and Giuseppe Carenini. MEGA RST discourse treebanks with structure and nuclearity from scalable distant sentiment supervision. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7442-7457, Online, November 2020. Association for Computational Linguistics. [14]Chloé Braud, Maximin Coavoux, and Anders Søgaard. Cross-lingual RST discourse parsing. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 292-304, Valencia, Spain, April 2017. Association for Computational Linguistics. [15]Kailang Jiang, Giuseppe Carenini, and Raymond Ng. Training data enrichment for infrequent discourse relations. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2603-2614, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [16]Michael Heilman and Kenji Sagae. Fast rhetorical structure theory discourse parsing. CoRR, Vol. abs/1505.02425, , 2015. [17]Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28, pp. 1693-1701. Curran Associates, Inc., 2015. [18]Mathieu Morey, Philippe Muller, and Nicholas Asher. How much progress have we made on RST discourse parsing? a replication study of recent results on the RST-DT. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1319-1324, Copenhagen, Denmark, September 2017. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-10.pdf
# 市民意見収集のための「保育園」に関するツイート投稿者の 属性表現の抽出と属性の推定 柏野 和佳子 $^{1}$ 平本 智弥 関 洋平 $^{2}$ 1 国立国語研究所 音声言語研究領域 2 筑波大学 図書館情報メディア系 ## 1 はじめに ソーシャルメディアのマイクロブログ(Twitter を利用)の投稿から市民意見を収集し,自治体の行政の課題を改善するための意見抽出の研究を進めている(関 2017,柏野ほか 2017,柏野ほか 2018,雨澤・関 2018,安藤・関 2018,柏野ほか 2020,石田ほか 2021). 柏野ほか(2019), 柏野ほか(2020)では, 2015 年〜 2018 年の間に投稿された,つくば市,水戸市,横浜市の三つの都市に住むユーザのツイートのうち, 「保育園」に関するものを対象に, 人手によりその内容がポジティブであるのか, ネガティブであるのかを判定し, ポジティブな表現, ネガティブな表現を抽出した結果を報告した. それら一連の評価表現の抽出に際し, 評価者であるツイート投稿者が, どのような立場から評価しているのかが問題になった. たとえば,保育園の職員であるのか,保育園に子供を通園させている親であるのか,これから子供を通園させたいと思っている親であるのか,あるいは,それらには該当しないが,保育園問題に関心を寄せる市民であるのか. 投稿者の属性は, アカウント名やユーザ名, プロフィール情報からある程度自動で抽出可能ではあ る.しかし, 筆者らは, それらが不明膫な場合や不十分な場合もあるため, ツイート本文のみで投稿者の属性判断がどの程度可能であるかを人手により試行することとした. そこで, 収集したツイートを対象に,ツイート本文以外の情報を見ずに,投稿者の属性の特定を可能にする表現を抽出し, それに基づき属性を推定し, 本文以外にある情報と推定結果を照合した。本稿ではその試行作業について報告する. また,親であることの特定を可能にする表現に我が子の呼びかけ表現があるが,ツイート中には様々なバリエーションが見られる。 それについてもくわしく報告する. ## 2 分析対象のツイート 柏野ほか(2020)で用いた「っくば市保育園データ」 (つくば市民の Twitter アカウント 69 個による「保育園」に関する 2017 年 7 月 1 日 2018 年 3 月 31 日分のツイート 150 件)に加え,新たに収集したツイ一トの一部(横浜市民の Twitter アカウントによる 「保育園」に関する 2010 年 2 月 1 日から 2020 年 4 月 30 日分のツイート, 6,202 件)のうち, さらに次の順で絞ったものを本稿の分析対象用ツイート「横浜市新保育園データ」として用意した。 1. 2019 年 4 月 1 日 2020 年 4 月 30 日までに投稿されたツイート, 1,743 件. 2. 分析対象外と判断したアカウントのツイー 卜を除外. 計 1,215 件. 1 は, 人手で作業可能な範囲として最近の 1 年間に対象を絞ったものである. 1 年のうち, 4 月は入園, 3 月は卒園, 10 月 12 月は次年度 4 月入園申し込み次期, 1 月 2 月はその入園の合否が出る時期である.また,2019年 10 月より,「幼保無償化」(幼监教育無償化)が開始された. そういった期間に投稿されたツイートが対象ということである. 2 は, 今回の分析対象を個人の属性表現抽出にするため, ユーザ名よりあきらかに個人でないと判断できるアカウントはあらかじめ除外した.たとえば,政治団体や商業施設等である.ただし, 非個人アカウントのうち, 幼稚園・保育園のアカウントは, そこで園長などの個人的な意見が書き込まれるケースがあるため残した。また,ユーザ名が個人商店名の場合は,店主が個人的なツイートをすることもあるため, 属性判断作業の段階で対象外か否かの判断を行うこととし, それらアカウントも残した. その結果, ここで削除したアカウントは 34 個, 残したアカウントは 94 個であった。 つまり, 属性判断作業の対象ツイートは次の表 1 のとおりである. 表 1 分析対象ツイート(件) ## 3 属性表現の抽出と属性の推定 ## 3.1 作業手順 「つくば保育園データ」と「横浜市新保育園デー 夕」とを対象に,それぞれについて,人手により,次の手順にて, 属性表現の抽出と, 属性の推定, 推定結果の照合を行った. 1.プロフィールがたどれる情報(ユーザ名など) を非表示にし,ツイートをシャッフルする。 2. 属性表現(=属性を推定可能にしている語句) をツイート本文から抽出. 1 ツイートから複得られる場合は, 複数抽出. (今回は最大で 3 つだった) 3. 2 から推定した属性を付与. ※以下, 「推定属性」と呼ぶ. 推定する属性候補が複数ある場合は,第 1 候補,第 2 候補として付与した. (今回は最大で 2 候補に収めた) 4. 非表示にした情報(ユーザ名など)を再表示し,ツイートをユーザ名ごとの日付順にし,付与した属性と照合. ## 3.2 作業例 たとえば,図 1 では,「保育園の見学に行ってきました」や「保育園落ちた」を属性表現として抽出し, そこから, 投稿者の属性を「保活中の親」(保活=保育園入園のための活動)や「保育園に落ちた親」と推定した例である. 図 1 属性表現抽出と属性推定の例 2 ## 3.3 属性表現の抽出例 たとえば,「保育園肾の親」と推定させる語・表現の抽出例は次のとおりである. (1)保育園(に)預ける ツイート: 保育園預けてちょっと電車に乗って帰ってきて保育園お迎えに行ってきただけでぐったり疲れちゃった。身体が鈍ってる。もりもり仕事したいけど。 (2)保育園(に/へ/まで)お迎えに行くツイート:早めに保育園へお迎えに行くと、まだ担任の保育士さんがいらっしゃるので、園での様子を結構細かく聞けるというメリットはあるんですよね。 まあだいたいトラブルを聞く羽目になるんですが。 (3) [時期・時間表現]が/は保育園の [イベント名] (だ) ツイート:今日は保育園のお檪しみ会美桜 ver 今年で最後のお楽しみ会。相変わらず全開で楽しんでたなあ。ほんとよく笑う 「保活中の親」と推定させる語・表現の抽出例は次のとおりである。 (1)保育園(の)見学(に)行く ツイート:雨すごいけど、職場近くの保育園見学行くんですけど。。○ やまないかな? (2)保育園(に)受かりました,保育園(に)入れました ツイート:横浜市保育園第一希望受かった一!!!!みんなが第一に選びそうなほうをあえて第二にして、保育方針に差異はない姉妹園を第一希望に書いてよかった! どうせ場所もたいして変わらん、先生たちも毎年シャッフルされるから保育方針も変わらん! ツイート:【報告】保育園入れました。今日、2 次募集の結果が来ました。ご心配くださったみなさん、 ありがとうございました。受かったのは小規模保育だしいろいろ思うことはありますが、ひとまずほっとしています (3)保育園(を)保留(する/中) ツイート:保育園保留中。年度限定対象の保育園を見学に行った。ほかに 2 組の親子が来てたーママに一緒に入れたらいいです数って言われた。ほんと。 (4)保育園(に)落ちた ツイート:すいません、いいねくれたので気になりました。保育園どうでしたか?うちは落ちました… ## 3.4 属性候補が複数ある場合 属性候補が複数ある場合は,第 1 候補, 第 2 候補として推定属性を付与した. たとえば,「今日からまた保育園がんばろう!」は,「保育園児の親」と「保育園関係者」の両方の可能性があり, 両方を付与した. 細かなことを言うと,「親」と考えらえるものが 「親」ではなく「祖父母」の可能性もあるのだが,今回の対象ツイートで祖父母とはっきり確定できたものはなく,そこは「親」としてのみ推定している. 先の図 1 で,「保育園落ちた」という属性表現に対し, 「保育園に落ちた親」の推定属性を付与している例を示した。ツイート上には,多く,「\#保育園落ちた」とハッシュタグ付きでも多用されるが,こちらは属性候補が 2 つ出てくる. 「保育園落ちた」は,2016 年 2 月に若名で投稿された「保育園落ちた日本死ね」というタイトルのブログが話題になったことをきっかけに,実際に入園できなかったことを直接指すだけでなく,保育園不足問題を表すフレーズとしても使われるのである. そのため,「\#保育園落ちた」という表現は,「保活中の親」の可能性に加え,「待機児童問題に関心がある人 (親以外)」の可能性もある属性表現ということになる. よって, 図 2 のハッシュタグの 2 例は, 2 つの属性を候補として付与している. 「今日も保育園のことで区役所へ。身分証明を持つていけば,自分のランクを教えてくれるらしい\#保育園落ちた \#横浜市」属性表現 推定属性「保育園に落ちた親」た 「待機児童問題に関心がある人(※保育園に落ちた覣以外)」 「\#保育園落ちた\#待機児ゼロ https://t.co/Wq4fLtdpPC」」 属性表現 推定属性「保育園に落ちた親」 「待機照童問題に関心がある人(※保育圈に落ちた視以外)」 図 2 属性表現抽出と属性推定の例 2 図 3 図 2 の 2 例目ツイートの参照先図 2 の 1 例目は, 図には示していないが, 「保育園のことで区役所へ」(推定属性 1 「保育園北の親」,推定属性 2「保活中の親」)とあわせると, 「保育園に落ちた親」と判断可能な例である.「\#待機児ゼロ」 というハッシュタグの並びや, さらに, リンク先 (図 3)まで見ると,保育園不足問題を意図していることがわかり,「待機児童問題に関心がある人(親以外)」 と判断できる例である. ## 3.5 作業結果 属性表現の抽出数, 付与した推定属性数および,属性判断作業時に非表示にしていた情報(ユーザ名など)と照合した結果を,表 2 に示す。 表 2 属性表現抽出と属性推定の照合結果 & & \multicolumn{1}{|c|}{ 正解 } & 不正解 & 保留 & 正解率 \\ 8 割前後と,高い正解率を得ることができた. ## 4 我が子の呼び方表現 親であることの特定を可能にする,我が子の呼びかけ表現を抽出した。これには,柏野ほか(2020)で用いた「つくば市保育園データ $2 」$ 」(2018 年 4 月 1 日 2018 年 10 月 31 日分のツイート 109 件),「水戸市保育園データ」(2017 年 7 月 1 日〜2018 年 3 月 31 日分のツイート 139 件)も対象ツイートに加えて行った。抽出結果は次のとおりである。 (1)「子」「子供」を含むタイプうちの子,我が子,わが子上の子,下の子,末っ子子供たち (2)生まれた順(序列)がわかるタイプ長男, 長女, 二番目 ※(1)の「上の子」「下の子」「末っ子」も, ここにも含まれる. (3)「娘」「息子」を含むタイプ 娘,息子,うちの娘,うちの息子,娘ちゃん,息子くん,娘氏 (4)「娘」「息子」のカタカナ表記や変形 ムスメ,ムスコ,むちゅめ,ムスッコ ※ほかの呼び方と比べて,投稿者=その子供の親である可能性が高い印象. (5)ニックネーム「+ちゃん」 例:ふうちゃん (6) 本名「+ちゃん」「+君」 例: 楓音, 太良君 ## (7)「姫」「王子」を含むタイプ 姫, 王子 なお,「うちの姫」「王子様」といった例も,分析対象外のツイートを広く検索すれば見つかりそうではあるが,ざっと検索したところ, ペットの呼びかけ例が多い印象を得た。 また, 今回の調査対象中にあった, あるアカウントの他ツイートも追跡調査したところ, 次のような変遷例も得られた。あわせて報告する. 〔2014 年〕息子 〔2015 年〕息子氏、息子達 〔2017 年〕長男 〔2018 年〕末っ子、上の子ら、赤子 〔2019 年〕息子たち、息子 s、息子 1 st、息子 $2 n d$ 「息子が増えていった結果,それぞれの「息子」 イートならではのユニークな表現方法と言える. ## 5 おわりに ツイートの投稿者の属性は,アカウント名やユー ザ名, プロフィール情報に,「1 児の母」「2 児の父親」「保育士」「市会議員」などと示されていることがあり,「保育園」のツイートがどのような立場でされたものか判断できる場合はある. しかしながら,それらの情報だけでは不明瞭であったり不十分であったりする場合もあるため, ツイート本文のみで投稿者の属性判断がどの程度可能であるかを人手により試行した. その結果, 8 割近く判断可能であることを示した。 しかしながら, 人手作業には時間と量の限界があるため, 今後は, これらの人手による試行結果を, どのように自動抽出に結び付けていけるかを検討する必要がある. 今後の課題である. ## 謝辞 本研究は,JSPS 科研費 $19 H 04420$ の助成を得ています。 ## 参考文献 安藤有生, 関洋平(2018)「市民のツイートを用いた分散表現に基づく地名に対する市民の関心の傾向の可視化」『知能と情報』vol.30,no/6, pp.804814.DOI: 10.3156/jsoft.30.6_804 石田哲也, 関洋平, 柏野和佳子, 神門典子(2021 予定)「複数の属性の関連性に着目したソーシャルメディアからの市民意見抽出」『第 13 回データ工学と情報マネジメントに関するフォーラム (DEIM 2021)』. 柏野和佳子,立花幸子,平本智弥,関洋平(2017) 「市民意見の収集システムで得られたツイートからの「保育園」「教育」に関する意見抽出」『言語処理学会第 23 回年次大会発表論文集』pp.533- 536. 柏野和佳子,平本智弥,関洋平(2018)「市民意見の収集システムで得られたツイートからの道路・交通に関する意見抽出」『ことば工学研究会資料』 vol。57, pp.13-21. 柏野和佳子,平本智弥,関洋平(2019)「市民意見収集のためのツイート表現の分析」『電子情報通信学会技術研究報告』vol .118, no.516, pp.95-98. 柏野和佳子,平本智弥,関洋平(2020)「市民意見収集のための「保育園」に関するツイートからの評価表現の抽出」『言語処理学会第 26 回年次大会発表論文集』pp.1313-1315. 関洋平(2017)「自治体における市民意見を利用した新たな気づき」『スマートシティ「都留市モデル」シンポジウム』 南澤亜樹,関洋平(2018)「市民のツイートを行政課題ごとに分類するための関連語の抽出」『第 10 回データ工学と情報マネジメントに関するフォーラム(DEIM 2018)』J6-2
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-11.pdf
# 近現代日本語の意味変化分析のための単語データセット構築の試み 間淵洋子小木曽 智信 国立国語研究所 言語変化研究領域 \{mabuchi, togiso\} @ ninjal.ac.jp ## 1 はじめに 近年,日本語のコーパスが相次いで構築・公開されたことにより,コーパスを用いた日本語の実証的研究が盛んに行われている。中でも, 国立国語研究所構築の『現代日本語書き言葉均衡コーパス』(以下, $\mathrm{BCCWJ}$ ) や『日本語歴史コーパス』(以下, $\mathrm{CHJ}$ )「明治・大正編」を用いた近現代日本語を対象とした研究は, データ量や文章バリエーションの豊富さを背景に,数多く行われており,BCCWJ,CHJ「明治・大正編」を複合的に利用することで,近代から現代にかけての日本語の通時的変遷を見出そうとする研究も見られる (間淵 2017[1], 高橋・東泉 2018[2],市村 2019[3], 馬場 2019[4]等) . 一方, 自然言語処理の分野では昨今, 言語変化を検出する手法が多く提案されており, 英語・ドイツ語・ロシア語などでは, 提案手法と共に通時的変化を生じた単語のリストが共有されている (Kulkarni et al. 2015[5], Schlechtweg et al. 2018[6], Rodina et al. 2020[7]).これらのリストは, 新たな手法の評価等に利用することができ, 言語変化の検出という自然言語処理の一課題に対して有用なリソースとして機能している. そこで本研究では, 両研究領域にわたって近現代日本語の意味変化分析に利用可能な単語データセッ卜を構築することを目的として, 意味変化が想定されるいくつかの語を対象に,コーパスでの使用実態調查を行う。コーパス調查に基づき,これらの語の通時的変化の様相を明らかにした上で,言語変化の生じた単語のリストを試作する。 ## 2 研究方法 ## 2.1 調査対象語 本研究では, 日本語学および自然言語学の両分野において利用可能な単語データセットの構築を目指すことから,データセットを構成する単語の条件と して, (1)使用頻度の高さ, (2)近代から現代にかけて (特に戦前・戦後間)の意味変化の大きさ,の 2 点を定めた上で,この条件を満たす近現代日本語を探索するために,コーパス調査の対象とする候補語リストを作成した。 調查対象語のリストは,CHJ「明治・大正編」と BCCWJ の網羅的な調査に基づき近現代漢語の表記・品詞用法の実態把握を行った間淵 2018[8]の結果を元に,近代から現代にかけて品詞用法の使用割合に大きな変化が見られた漢語を中心として,意味変化の認められる語を選定し, ジャパンナレッジ版『日本国語大辞典』「語誌」欄で戦前・戦後間での意味変化に触れている語などを適宜追加した。 【和語】旨い,心持ち,衣こだわる,痺れる,迧も,坩堝 【漢語】愛人,管制,貴族,教授,教養,結構,広告,故障,自然,住居,渋滞,柔軟,主婦,障害,情報,女性,尋常,精々,設備,全然,団塊,端末,適当,溌剌,非常,風俗,婦人,普段,普通,明細,免許,遊撃, 優勝, 要領, 了解 【外来語】カフェ, ケース, スーパー, ポイント, ボタン, モデル ## 2.2 コーパス 前節に示した調查対象語の使用実態を把握するために使用するコーパスの概要を表 1 に示す. 表 1 使用コーパスの概要 \\ 明治・大正期における使用実態調查には CHJ「明治・大正編 I 雑誌」を用いる. 明治・大正期に続く昭和期以降の使用実態調查には, 現在筆者らが構築を進めている『昭和平成書き言葉コーパス』(以下 SHC, 近藤他 2020[9])の雑誌データの一部を用いる. このコーパスは, 既存の近代語のコーパスである $\mathrm{CHJ}$ 「明治・大正編」と, 現代語のコーパスである BCCWJ の間にある時間的空隙を埋め, さらに BCCWJ 以降現在までの期間のデータを追補することを目的として設計したコーパスである. 現況で整備が進んでいる 1997 年までの雑誌データを利用する. さらに, 現代の使用実態を BCCWJ 出版サブコ ーパス・雑誌により確認する。これらのコーパスを複合的に用いることで, 近代語から現代語にかけて生じている意味変化の実証的な分析が可能となる. なお, 表 1 に示した「時代区分」は, 言語変化が時代背景や社会情勢に大きく影響されることを鑑み,日本史上の区分に大きく分けた上で,コーパスの収録語数に大きな偏りが生じないよう考慮した任意の区分である. ## 2.3 意味分類 次に,コーパスで取得した用例の分析方法について述べる. 本研究では, コーパスの調査に基づき, 通時的な意味変化の様相を明らかにしようとするものであるため, まず必要となるのは, 各用例がどの意味で用いられているかを判断することである。ここで問題になるのは,各語の意味をどのように,またいくつに并別するかという点である. 例えば,和語「痺れる」を例に,辞書による意味の捉え方・分類のし方を確認すると,辞書の性質によって差異があることが分かるi. ## ロデジタル大辞泉 1 からだの一部または全体の感覚が失われ、自由がきかなくなる。「正座して足が一・れる」 2 電気などを感じてびりびりふるえる。「感電して一・れた」 3 心を奪われてうっとりとする。強烈な刺激を受けて陶酔する。「ジャズ演奏に一・れる」  ■プログレッシブ和英中辞典 I〔麻疩(まひ)する〕 become numb;〔電気で〕 receive an electric shock II【陶酔する】 be enraptured, be bewitched, be fascinated ((by)) 本研究では, 近代から現代にかけての変化が大きく捉えられる点を重視するため,できるだけ大まかに意味を捉えることとし, 可能な限り, 原義的(古い用法, 近代または戦前に多い用法) か, 転義的(新しい用法, 現代または戦後に増えている用法)かの観点で意味分類を行うこととする。 すなわち,上記「痺れる」の例では, 『プログレッシブ和英中辞典』 と同様, 肉体的な作用 (原義, 例 1)と心理的な作用 (転義, 例 2)の 2 分類で用例分類を行う ${ }^{i i}$. (例1)急に降りようとして立上ると、復た先日重かつた足がしびれて利かないので、暫く擦つて居るとなほつた。 〈60M 太陽 1925_03058,42480〉 (例 2) 赤と黒のコントラストにしびれちゃった。 〈PM11_00842, 31800> ## 3 調査結果 ## 3.1 頻度変化と意味変化 2 節に示した調查対象語のコーパス調查から, まず頻度の変化に着目して結果を確認する。付録として, 調查対象語のコーパスの収録語数(空白,補助記号, 記号を除く) 100 万語あたりの調整頻度 (PMW) を掲載し, 以下の議論ではこれを用いるが,紙幅の都合上,和語・外来語を中心に述べる. 和語和語の候補語のうち,「㾝れる」「坩堝」は,低頻度で推移しているため, データセットとしての条件を満たさない. 頻度の下降が見られる「心持ち」は, 戦前 (昭和前期)まで[気立て・気持ち]の意味での用法が見られるが, 戦後はこれが衰退し, 程度がごく僅かであることを表す副詞としての用法で残存するものと思われる。 (オンライン検索アプリケーション『中納言』でんの「位置検索」により当該用例の再検索が可能。) 同様に下降する「衣」は, 原義である[衣服・着物]の意が衰退し, [揚げ衣]の意での用法が保たれる. 頻度の上昇の見られる「こだわる」は, 従来の[執着する] 意がマイナスの意味を持って用いられる一方, プラスの転義 (意味の上昇)として, [妥協せず追求する] 意を獲得することで頻度を上昇させていると考えられる。[味覚的な良さ]に加えて, より抽象的な [程度の高さ]の意を獲得した「旨いも同様である. 図 1 和語の頻度推移 (PMW) 外来語外来語語彙は,いずれも明らかに頻度の上昇が見られた.「ボタン」「ケース」「ポイント」「モデル」等,意味の一般化$\cdot$抽象化による意味の拡張・多義語化が,頻度上昇の要因となっているものと考えられる. 図 2 外来語の頻度推移 (PMW) ## 3.2 データセットの選定 前節までの議論から,侯補語のうち,頻度条件を満たさないもの, 意味分類が困難なもの, 意味分布の通時的な差が大きくないものを除き,意味変化分析に適した単語データセット試作として,以下のリストを提示する。【和語】旨い,心持ち,衣ここだる,迧も 【漢語】管制, 貴族, 教授, 教養, 結構, 故障, 自然,住居,渋滞,柔軟,障害,情報,女性,尋常,精々,設備, 全然,適当,非常,風俗,普通,免許,優勝,要領, 了解 【外来語】ケース, ポイント, ボタン, モデル ## 4 おわりに 日本語研究,自然言語処理の両領域にわたって,近現代日本語の意味変化分析に利用可能な単語デー タセットを構築することを目的として,コーパスでの使用実態調查に基づき,通時的な意味変化を生じた単語データセットを試作した。 本研究では,意味変化をできるだけシンプルに捉えるために,原則として原義・転義の 2 分類に意味分類し意味分布とその推移を確認したが,そのためにやや強引な用例分類を行った面もある. 今後, この単語データセットを意味分析の数理的研究や, 言語変化の検出モデルの構築などに活用することで, データセットの問題点の把握, 見直しなどを行って $い<$. ## 付記 本研究は, 国立国語研究所共同研究プロジェクト 「通時コーパスの構築と日本語史研究の新展開」, 同「現代語の意味の変化に対する計算的・統計力学的アプローチ」, JSPS 科研費 19H00531, JSPS 科研費 20K13060 による研究成果の一部である。 ## 参考文献 [1]間淵洋子.近代雑誌コーパスにおける漢語語彙の特徴一BCCWJ との比較から一. 国立国語研究所論集, 13, 2017, 143-166. [2]高橋圭子・東泉裕子. 近現代語コーパスにおける 「(さ)せていただく」の用法.コミュニケー ション文化, 12, 2018, 177-192. [3]市村太郎. 副詞「ほんとうに」の展開と「じつに」「まことに」一近代語から現代語へ一.国文学研究, 188, 早稲田大学国文学会, 2019, 1-15. [4]馬場俊臣. 助詞・助動詞で始まる複合接続表現の文体差. 北海道教育大学紀要(人文科学・社会科学編), 70 (1), 2019, 1-11. [5]Vivek Kulkarni, Rami Al-Rfou, Bryan Perozzi, and Steven Skiena. Statistically significant detection of linguistic change. Republic and Canton of Geneva: CHE, In Proceedings of the 24th International Conference on World Wide Web, WWW '15, 2015, 625-635. International World Wide Web Conferences Steering Committee. [6]Dominik Schlechtweg, Sabine Schulte im Walde, Stefanie Eckmann. Diachronic Usage Relatedness (DURel): A Framework for the Annotation of Lexical Semantic Change. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), 2018, 169-174. Association for Computational Linguistics. [7]Julia Rodina, Andrey Kutuzov. RuSemShift: a dataset of historical lexical semantic change in Russian. Proceedings of the 28th International Conference on Computational Linguistics, 2020, 1037-1047. International Committee on Computational Linguistics. [8]間淵洋子. 近代漢語における表記・語法の多様性とその変化に関する計量的研究: 現代語確立期にみる言語変化の様相と背景. 明治大学, 2018 . [9]近藤明日子,小木曽智信,高橋雄太,田中牧郎,間淵洋子.「昭和・平成書き言葉コーパス」 の設計. 日本語学会 2020 年度秋季大会予稿集, 日本語学会, 2020 . ## 付録 近現代日本語意味変化分析のための単語データセット頻度表(PMW) & 平成前期 & 平成後期 & 変化類型 \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-12.pdf
# 都道府県議会会議録コーパスの拡張一2011 期と 2015 期の比較一 内田ゆず 北海学園大学 yuzuahgu.jp } 高丸圭一 宇都宮共和大学 takamaruekyowa-u.ac.jp } 乙武北斗 福岡大学 ototake@fukuoka-u.ac.jp } 木村泰知 小樽商科大学 kimura@res.otaru-uc.ac.jp ## 1 はじめに 近年,インターネットに公開された議会会議録を利用した学術研究がさまざまな分野で盛んに行われている [1][2]. 自然言語処理分野ではこれまでに要約 [3], トピック分析 [4], 意見抽出 [5] などの研究が行われている. 議会における発言の記録である会議録は,地方自治におけるファクトチェックのための一次情報としての利用が期待される. これを指向して,NTCIR-15 QA Lab-PoliInfo-2 では,東京都議会を対象として,議案への賛否推定 (Stance classification),質問と答弁の要約(Dialog summarization)などのタスクが行われた [6]. 筆者らは横断的に収集した会議録から「いつ」「どこで」「誰が」「何を」発言したのかを明らかにするために,すべての発言文にタグを付与した,地方議会会議録コーパスの構築を進めてきた. 種々の分野で会議録を研究対象とするとき, 各種の統計量(たとえば,都道府県 P での 1 会議あたりの平均発言者数)を算出したり,ある一定の条件下での発言(たとえば,単語 $\mathrm{w}$ を含む議員 $\mathrm{A}$ の発言)を抽出したりするという利用方法が考えられる. これを実現するためには,収集範囲および収集期間の統制がとれたコーパスサブセットが必要である. そこで,収集範囲を「全国 47 都道府県議会の本会議」,収集期間を「統一地方選挙を起点とした 4 年間」と定めた都道府県議会会議録コーパスサブセットを順次構築している. 2017 年に最初のサブセットである「47pref_2011-2015」(2011期と呼ぶ)および横断検索システム「ぎ〜みる」を公開した.新たに 2015 年 4 月から 2019 年 3 月までの 4 年間の会議録を収録した 2 期目(2015 期と呼ぶ)のサブセット 「47pref_2015-2019」を構築した. 本稿では,2011 期と 2015 期のサブセットを比較し,議員の構成,発言量,キーワードの発言回数などについて述べる. ## 2 都道府県議会会議録コーパスの 概要 ## 2.1 データの収集 収集対象は全国 47 都道府県議会の本会議(定例会および臨時会)であり,収集期間は 2015 年 4 月の統一地方選挙から 2019 年 4 月の統一地方選挙の前(2019 年 3 月)までの 4 年分である. 都道府県議会はすべて,それぞれの自治体の Web サイトに会議録の全文検索システムを公開している. 各全文検索システムに対応するクローラを作成して,会議録データの収集を行った. ただし,自治体ごとに検索システムや表示部分をカスタマイズしているため個別対応が必要であり,部分的に人手による作業も交えながら収集作業を行った。 収集された全国 47 都道府県の本会議会議録を句点で 1 発言ごとに分割し,それぞれの発言の発言者名を抽出した。そして,会議の名称や開催日等の情報と併せて 1 発言を 1 レコードとして格納した(詳細は [7] 参照)。総収録データは $3,873,026$ レコードであり,発言の総文字数は $248,281,520$ 文字である. ## 2.2 発言者の同定 会議録から抽出した発言者名は,同一人物でも複数の表記をもつことがある.例えば,衛藤明和氏は 「衛藤明和議員」「衛藤明和文教警察委員長」「衞藤明和土木建築委員長」のように肩書が異なる表記や,旧字体を使用した表記をもつ。さらに,「岩切達哉/岩切達郎」「有岡浩一/有岡浩一」「太田清海 /太田晴海 $\rfloor^{1)}$ のように,会議録作成者の誤入力による表記摇れも存在する。 議会での発言を議員単位で分析するためには,発言者を正確に同定する必要がある.したがって,発言者名が一つに定まらない発言者については,人手  で名寄せの作業を行った. 具体的には,発言者の氏名に付加された敬称や肩書, 議席番号等を正規化した。また,旧字体や通称を用いる議員への対応や,会議録作成者による記載ミス等の修正も行った. 名寄せの結果得られた発言者数は合計 7,606 名であった。 ## 2.3 発言者の属性情報付与 会議録には議員の発言の他にも議長の発言(議事進行)や首長の発言,職員の発言,参考人の発言も記録されている. 本コーパスには「発言者の役職」 フィールドが設けてあり,各発言に役職の情報を付与している. この情報を利用すると, 議会での立場の違いによる発言の特徴を分析できる。 また,議員については生年や性別,対象行政区 (選出選挙区)といった属性情報が分かると, 発言内容の分析や言語的特徴の分析にとって有益であると考えられる. しかし, これらの情報は会議録中には記載されていないため,選挙の立候補者情報がまとめられた Web サイトである「政治山 $\left.{ }^{2}\right.\lrcorner$ から収集し,発言を格納するテーブルとは別のテーブルに格納した. さらに,議員には固有の IDを付与した.議員 ID によって, サブセット間で議員の発言を追跡することが可能となる. 以上の処理により,2015 期は,2,745 名の議員, 55 名の知事, 157 名の副知事, 398 名の議長が発言していることが明らかになった。 ## 32011 期と 2015 期の比較 2011 期,2015 期のデータについて,議員の構成,発言量,キーワードの発言回数の観点で比較する. なお, 岩手県, 宮城県, 福島県, 茨城県, 東京都,沖縄県は統一地方選挙とは異なる日程で選挙が行われることに注意が必要である. ## 3.1 議員の構成 全国の都道府県議会議員の定数を合計すると 2,686人だが、改選や補欠選挙による議員の入れ替わりが生じるため 2015 期の議員は 2,863 人存在する. 改選による入れ替わりが 100 名, 補欠選挙による入れ替わりが 77 名である. 議員の年齢 3$)$ ・性別の構成を表 1 に示す. 表中の括弧内の数字は,2011 期からの増減を表している。  高齢化が進んでいること,女性議員の割合はやや増加 $(8.7 \% \rightarrow 10.3 \%)$ していることが明らかになった. また,2011 期のデータを収集した時点では政治山から生年の情報を取得できない議員が 76 名存在したが,2015 期では 0 名であった. 地方議員の Web 上での情報発信が促進されたことがうかがえる. ## 3.2 発言量 議会や議員の活動を可視化するために,発言量を都道府県別,属性別,個人別に分析する.本会議の開催回数が異なるため一律に比較はできないが,発言量は議会の活発さのおおよその目安になる. 都道府県議会会議録における文字遣いは「発言記録作成標準 [8]」などによって標準化されている. したがって, 各都道府県で表記の方法が大きく異なることはないと判断し,分析の単位を文字とする。 全体 2011 期と比較して,総発言文字数は 252,364,746 から 248,281,520へと微减した. 各都道府県の本会議における総発言文字数を図 1 に示す.発言数が最も多いのは鳥取県で,最も少ない山形県の約 4.5 倍に達する.これは,2011 期とほぼ同じ結果である. 2011 期と 2015 期を比較して発言文字数が大きく変化したのは, 大阪府 (25.1\%減), 兵庫県 $(24.5 \%$増), 長崎県 (35.2\%減), 沖縄県(34.9\%増)であった. 役職ごとに発言文字数を集計すると,大阪府は,知事の発言文字数が 611,715 から 247,961 と大きく減少している. 沖縄県では,職員の発言文字数の増加が顕著である.沖縄県は,2011 期の職員の発言文字数が $3,088,869$ で全都道府県議会中最多であったが,2015 期ではさらに 4,807,870へと増加している. 属性別議員の属性別に発言の平均文字数を集計した結果を表 2 にまとめる. 2011 期と 2015 期を比較すると,高齢の男性議員の発言量が顕著に少ない点,女性議員の発言量が多い点は共通している. 発言量に大きな変化があったのは 45-64 歳の女性議員と 65-87 歳の女性議員である. 45-64 歳の女性議員の発言量は減り,65-87 歳の女性議員の発言量は増えている. 2015 期に 100,000 字以上発言している女性議員 32 名のうち,23 名は 2011 期でも議員を務めている.この 23 名について,2011 期での発言文字数を遡って調査したところ,89,107〜311,442 字であった. 2011 期で活発に発言した議員は 2015 期でも発言量が多いといえる. 2011 期の 25-44 歳と 表 12015 期の議員の構成(括弧内は 2011 期からの増減) 図 1 各都道府県議会における発言文字数 45-64 歳の女性議員の発言量の傾向と併せて考えると,女性議員の発言量の変化は議員が年齢を重ねたことが要因だと考えられる。 個人別発言文字数ごとの議員数を図 2 のヒストグラムに示す. 表 2 によると全議員の平均発言文字数は 42,661 字であり, 多くの議員が 10,000 字以上発言している。一方,発言が少ない議員(1,000 字未満)も119名存在する. そのうち,発言文字数が 0 文字,つまり会議録中に発言が全く記録されていない118名について詳しく調査したところ,21名はコーパス収集期間と任期が一致しておらず4),21名は議長として議事進行を行っている期間があった。 したがって,それらの 42 名を除いた 76 名は 4 年間の任期中に本会議で一度も発言していないことになる.このうち,男性は 73 名,女性は 3 名である. 無発言の 76 名について当選回数を調査した結果を図 3 に示す。比較のために 2015 期に実施された選挙で当選した議員の当選回数も併せて示している. 当選回数のデータは政治山, Web サイト「読売オンライン」の地方選挙情報ページ5)などから取得した。全議員では当選回数が増えるほど人数は減る一方,無発言の議員は当選回数が多い傾向があることがわかる. 2011 期においても,発言のなかった 59 名のうち 58 名は多選(4 回以上)の男性議員であり,同様の傾向がみられた。  図 2 発言文字数別議員数 ## 3.3 キーワードの発言回数 我々はこれまでに,2011 期のデータを対象として,議員の属性と政治課題に関するキーワードの出現回数の関係を調査し,特定のキーワードの出現傾向が議員の性別や年齢層によって大きく異なることを明らかにした [9]. 2015 期のデータについても [9] と同じキーワードを用いて同様の分析を行う。 図 4 は各キーワードの「男性議員を 1 とした時の女性議員の発言回数の割合」を示している. 2011 期で女性議員が「増税」というキーワードを発言する回数は,男性議員の 4.4 倍であった. 2015 期ではさらにその差が開き,6.5 倍となっている。「貧困」「就労支援」など,男性の発言割合が相対的に増えているキーワードも存在するが,生活に密着した政治課題への言及は依然として女性議員による言及が 表 22011 期と 2015 期の議員属性別平均発言文字数 図 3 議員の当選回数 図 4 性別によるキーワードの出現割合の比較 多い。男性議員は「地方分権」「高速道路」「インフラ」「観光」など,行政や産業分野への言及が多く, これも 2011 期と同様の特徴である. 以上より,議員の性別によって発言内容の特徴が異なることが示唆される。また,女性議員の数が圧倒的に少ないため,議会で取り上げられる政治課題に偏りが生じている可能性がある. 今後,議員の年齢層による発言内容の特徴も分析したい. ## 4 おわりに 2015 年 4 月から 2019 年 3 月に開催された全国 47 都道府県議会の会議録データを収集し,都道府県議会会議録コーパスを拡充した. 本稿では, 新たに追加したデータの概要と,2011 期と 2015 期のデータの比較について報告した. 今後は, 発言文字数や単語の出現頻度などの表層的な分析だけでなく, より詳細な分析を行いたい.また,国会会議録との比較も検討している。 ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{~K} 00632 , 20 \mathrm{~K} 00576$ およびセコム科学技術振興財団の助成を受けたものである. ## 参考文献 [1] 渡部春佳. 地方議会議事録分析による話題抽出についての一試論一地方議会・委員会での公の施設「劇場・音楽堂等」に関する議論を事例に. 社会情報学, Vol. 9, No. 1, pp. 1-15, 2020. [2] 桑田倫幸, 近田裕子, BATUER JULAITI, 森岡友紀, 山口明, 木佐谷康, 信田勝美, 板倉宏昭. 都市型観光における商店街の地域性一東京都品川区議会会議録のテキスト分析からの考察を中心に一. 第 11 回横幹連合コンファレンス, 2020. [3] 木村泰知, 関根聡, 乾健太郎. 地方議会会議録の要約に向けて. 言語処理学会第 24 回年次大会 (NLP2018), pp. 596-599, 2018. [4] 佐々木稔, 乙武北斗, 木村泰知. 大規模地方議会会議録の分散表現を用いた地方議会のトピック分析. 2020 年度人工知能学会全国大会論文集(第 34 回), 2020. [5] 葦原史敏, 木村泰知, 荒木健治. 地方議会会議録における節単位による議員の要望抽出. 電子情報通信学会論文誌, Vol. J98-D, No. 11, pp. 1390-1401, 2015. [6] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyosi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the NTCIR-15 QA Lab-PoliInfo-2 Task. In Proceedings of the 15th NTCIR Conference on Evaluation of Information Access Technologies, 2020. [7] 高丸圭一, 内田ゆず, 木村泰知. 地方政治コーパスにおける都道府県議会会議録パネルデータの基礎分析. 宇都宮共和大学シティライフ学論叢, Vol. 18, pp. 136-155. [8] 日本速記協会. 発言記録作成標準 : 公正・正確な発言記録を目指して. 日本速記協会, 2007. [9] 内田ゆず, 高丸圭一, 乙武北斗, 木村泰知. 都道府県議会会議録コーパスを用いた議員の議会活動の可視化に向けて—What Can Be Seen from the Prefectural Assembly Minutes? 2018 年度人工知能学会全国大会論文集(第 32 回), 2018. ## A 付録 都道府県議会会議録コーパス 2015 期のデータの概要を以下に示す。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-13.pdf
# 国会および地方議会の予算審議を対象とした Budget Argument Mining タスクの提案 永㴊景祐 小樽商科大学 g2018268@edu.otaru-uc.ac.jp } 土屋彩夏 小樽商科大学 } 木村泰知 小樽商科大学 kimura@res.otaru-uc.ac.jp ## 1 はじめに 政治には,収入と支出を考慮し,お金の使い道を決める予算作成の役割がある。国の予算は,内閣で予算案が作成され,その予算案をもとに国会で議論された後に成立する。また,地方自治体の予算は,知事や市長により予算案が作成され, 議会で審議された後に成立する.このような過程を経て成立する予算は,どのような背景に基づいて予算案が作成され,どのような議論を経て成立しているのかを把握しづらい. 従来から,政治学や経済学の分野において,国や地方自治体の予算に関する研究が行われている. 予算過程では,(1) 財政収支計画の作成,(2) 審議,(3)執行,(4) 決算, の順番に進み,租税の配分や経費の配分について意思決定が行われる [1]. 予算を含む審議の分析は,国会,あるいは,地方議会の会議録を対象として,TFIDFを用いた分析,あるいは,共起ネットワークを用いた分析を行っている [2][3]. また,NTCIR-15 QA Lab-PoliInfo-21) では,東京都議会会議録を対象として, 議論構造を考慮した自動要約,議案に対する各会派の賛否分類,法律名の表記摇れおよび曖昧性 Entity Linking などの問題を解決する Shared task を開催している [4]. しかしながら,議会における予算審議の過程をわかりやすく自動で提示する方法については,研究の余地がある. そこで,我々は,国や自治体の予算成立までの議論に着目し,どのような議論に基づいて成立したのかを簡単に把握できるシステムを開発することを目標とする。本研究では,国会や地方議会における予算案の議論を対象として,概算要求の主要事項一覧と予算に関する議論を結びつけるタスクを提案する2). 国会や地方議会では,予算に関する議論が 1) https://poliinfo2.net/ 2)例えば,令和 3 年度の厚生労働省予算概算要求の主要事項一覧は,https://www.mhlw.go.jp/wp/yosan/yosan/21syokan/「議会会議録」として記録されている,そこで,本研究では,国会および地方議会における概算要求に記載されている「主要事項」および「金額表現」に基づいて対応する議論を議会会議録から見つけ,結びつけるタスクを提案する。 本研究の貢献は,下記の 3 つである. 1. 予算項目と議論を結びつけるタスクの提案 2. 議会の発言に含まれる金額表現の調査 3. 予算審議に適した議論構造のラベルの提案 ## 2 関連研究 本研究では,予算審議の議論における金額表現に焦点を当てる。テキストに含まれる金額表現の推定は,固有表現抽出における「金額」の抽出タスクとみなすことができる $[5,6,7]$. 金額表現は,人名や組織名と比較すると,高い精度で推定可能な固有表現である。 金額表現に関する研究には,金融関連のテキス卜を対象とした研究がある.例えば,NTCIR15 の FinuNum では,金融関連のツイートに含まれる数值表現が対象となる項目に対して,関連しているのか,関連していないのか,2值分類を行うタスクである3)。ここでは,ツイートを対象としており,関連性の有無だけを扱っており,議論の構造を対象としていない. 数字を含む自然言語文を理解する研究では,数量的常識の獲得を目指す研究があり,文章中の物体や現象の長さや重さなど,実世界における数量的特徴に関する知識を用いて,数字の予測に関する研究を行っている [8][9]. 国会会議録は,検索 API が公開されていることから,議員の発言を対象としたテキスト分析が行われている [10].  図 1 小樽市の予算総括表と会議録を用いたタスクの概要 Argument mining は,自然言語処理のアプロー チにより議論構造をとらえる研究を行っている [11]. Argument 分析の手順は,一般的に,Text segmentation, Classification(Argument or Non-argument), Simple Structure, Refined Structure の順番に行う. ## 3 Budget Argument Mining 本稿では,国会,および,地方議会における「予算審議に関する項目」と「議会会議録に含まれる関連した議論」を結びつけるタスクを Budget Argument Mining と呼ぶ. 図 2 には,小樽市の「予算総括表」と「議会会議録」を例として,Budget Argument Mining タスクのイメージを示す。本タスクは. 既存の予算事項一覧を起点として,予算が決まる過程である議論,つまり,会議録に含まれる関連した議員の発言に結びっける。 具体的には,次の 3 つのステップにより,予算項目と関連する議論を結びつける。 1. Step 1 Text segmentation:議会会議録に含まれる発言を議論の構成要素に分割する。 2. Step 2 Check relevance : 予算項目との関連性を 「関連あり」「関連なし」の 2 值で推定する。 3. Step 3 Argument labeling: 議論の構成要素に対して,予算審議の議論ラベルを付与する。 図 2 の予算総括表に「新型コロナウイルス感染症対応地方創生臨時交付金」の事業名があり,その金額は 287,108 千円と記載されている。ここで記載されている 287,108 千円の議論は,小樽市議会会議録の第 1 回臨時会で議論されている. 小樽市議会の会議録の場合,市長や議員の発言内容ごとに段落単位で記述されているため,Text segmentation は,既に が行われている状態である. Check relevance は,図 2 にある議論の構成要素の発言(以下「発言」と呼ぶ)に対して,新型コロナウイルスに対する関連の有無を推定する.Argument labeling は,関連があると推定された発言に対して「事実」「予測・見積」などの予算審議の議論ラベルを付与する. ## 4 金額表現と議論ラベル ## 4.1 予算審議に関する注釈付け 金額表現:予算の金額表現には,図 2 の予算総括表に記載されている金額(287,108 千円)に加えて,議会会議録に記載されている金額(約 2 億 8700 万円)がある.特に,議会会議録に含まれる金額表現は,表記摇れ,曖昧性の問題がある.そこで,本節では,予算審議における金額表現がどのように記載されているのか,議会会議録を対象に明らかにする. 議論ラベル:予算審議の議論ラベルとは,議会会議録に含まれる議員の発言に対して,議論の流れを理解するために必要となるラベルである。そこで,本節では,予算審議における会議録に対して,議論ラベルの注釈づけを行いながら,適切な議論ラベルについて検討する. ## 4.2 注釈付けの手順 注釈付けは,下記の手順で進める。 1. 国会,地方議会を対象に金額表現,および,議論ラベルを作成する. 2. 適切な議論ラベルであるか確認するために,新たな議会会議録を対象として,注釈付けを行う ことで確認する. まず,議論ラベルを作成するために,国会会議録,北海道議会会議録,小樽市議会会議録を対象として,金額表現を含む発言の調査を行う。そのなかでも「新型コロナウイルス」に関連した議論に焦点を当て,4月下旬から 5 月上旬の議会を選択する. 次に,適切な議論ラベルであるかを確認するために,国会会議録の予算審議を対象として,注釈付けを行う. 対象とする委員会は, 令和 3 年度の厚生労働省の概算要求に関する議案であり, 新型コロナウイルスの内容も含まれる。 ## 4.3 金額表現を含む発言の調査 我々は,国会衆議院予算委員会,北海道議会,小樽市議の議会録を対象として,金額表現を含む発言について調査した. 表 1 に金額表現を含む発言の調査結果を示す. 表 1 から国会は金額表現を含む発言の割合が多いことがわかる。また,国会は金額表現の表記摇れはなく,全て漢数字(例えば,二・二兆円)で記述されている。一方,北海道議会,および,小樽市議会は,アラビア数字で記述されていた。 表 1 金額表現を含む発言の調査結果 & & & \\ また,金額表現を含む発言に付与する議論ラベルを作成した。 決定事項: 国・自治体の政策などで決定したこと,あるいは,それに関わる金額. 特に,その年の予算委員会で決められた予算など 例示: 過去の事例で用いられた金額 事実: 現在の議論や政策に関連のない単なる事実としての金額. 例,前年度等の予算や金額 予測・見積: 見積額や予測金額など 訂正事項: 誤りについて訂正された金額 メディア: メディアで報じられた金額 提案:決定に至っていない提案事項. 例,野党からの改善案に含まれる金額 目安:おおよその基準となる金額質問・確認事項: 質問や確認に含まれる金額 ## 4.4 議論ラベルの付与 表 2 に 4.3 の議案ラベルを用いて,第 201 回国会衆議院予算委員会第 26 号(令和 2 年 6 月 9 日)の会議録に対して,議論ラベルを注釈付けした結果を示す. 表 2 からわかるように,決定事項,事実,例示に関する発言が多いことがわかる.金額表現の合計は 182 件であり,それらの金額表現は,94 発言の中に含まれていた. 表 2 金額表現を含む発言に付与された議案ラベル さらに,金額表現が含まれる 94 発言を対象として, 厚生労働省の概算要求および補正予算などの項目4)を議会の発言と結びつけることが可能であるかを調査した. その結果, 6 発言が「令和 2 年度厚生労働省第二次補正予算の項目」と結びつけられることを確認した,下記に,「主要項目」および「金額表現」に基づいて議会会議録の発言と結びつけられた例を示す。 第二次補正予算の項目に結びつけた発言の例 雇用調整助成金は、日額上限八千三百三十 円が一万五千円に引き上げられました。 ## 5 データフォーマット 本節では,国会会議録を対象として,予算項目と議論を結びつける Budget Argument Mining タスクの具体的なデータフォーマットについて述べる. ## 5.1 国会会議録について 国会会議は,本会議,常任委員会,特別委員会,憲法審査会,情報監視審査会,政治倫理審査会の 5 つに分けることができる ${ }^{5)}$. 現在検討している対象 4)https://www.mhlw.go.jp/wp/yosan/yosan/ 5)政治倫理審査会の会議録は公開されていない. 図 2 国会, 令和 3 年度厚生労働省予算概算要求の主要事項一覧表 会議録は,衆議院と参議院の本会議と委員会を合わせた 46 の会議録である. ## 5.2 国会会議録 API について 国会の会議録については,国会会議録 API を用いて,収集する。国会会議録検索システムでは,登録されているデータを検索し, 取得するための外部提供インターフェイス(API:Application Programming Interface)を提供している6) 。検索用 API を利用することで,検索リクエストに対し,XML 形式又は JSON 形式でデータを取得することができる.検索用 API は, (1) 会議単位簡易出力, (2) 会議単位出力, (3) 発言単位出力 93 種類がある. 本研究では,議長や議員の発言を全て取得する必要があるため, (2) 会議単位出力を用いる. 本タスクデータセットには,国会会議会議録を対象とする場合,国会会議録 API の情報に,下記の項目 checkRelevance, relatedBudgetID, argumentClass, moneyExpression を追加する。 ## 5.3 Json のフォーマット 本節では,本タスクの Json フォーマットについて述べる. 入力対象データは, 「令和 3 年度厚生労働省予算概算要求の主要事項一覧表」である. 検索対象データは,国会衆議院第 201 回予算委員会 26 号 (2020年 6 月 9 日)である. 図 2 の令和 3 年度厚生労働省予算概算要求の主要事項一覧表に対応する Json フォーマット,および,国会会議録の Json フォーマットを下記に示す. [ Listing 1 予算一覧表の Json フォーマット "budgetID ":識別子, "detail": [ " bill ":令和 2 年度厚生労働省第二次補正予算 "item":項目 "mainTopic": 主要事項, "subTopic":事項 "budget ":令和 2 年度予算額, "request ":令和 3 年度予算額要求・要望額, ] "urgent ": 緊要 ] 6) https://kokkai.ndl.go.jp/api.html ## 6 おわりに 本稿では,国会および地方議会における予算審議に関する「主要事項」および「金額表現」に基づいて関連する発言を結びつけるタスクについて提案した.また,タスク設計に向けて,国会,および,小樽市議会の予算項目を分析することにより,議員の発言に含まれる金額表現の特徴を述べるとともに,予算審議に適した議論構造のラベルを提案した。 今後は,Budget Argument Mining タスクを Shared taskとして開催する予定である. ## 謝辞 本研究は JSPS 科研費 18K00632,20K00576, 20H00059,20K01736およびセコム科学技術振興財団の助成を受けたものである. ## 参考文献 [1] 横田茂. [研究ノート] 日本の予算制度と予算過程 : その特質の形成. 關西大學商學論集, Vol. 64, No. 1, pp. 77-103, jun 2019. [2] 名取良太, 田中智和, 岡本哲和, 石橋章市朗, 梶原晶,坂本治也, 秦正樹. 地方議会の審議過程 : テキスト分析による定量化の試み. mar 2020. [3] 増田正. 計量テキスト分析によるわが国地方議会の審議内容を可視化する方法について. 地域政策研究, Vol. 19, No. 3, pp. 161-175, feb 2017. [4] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir- 15 qa lab-poliinfo task. Proceedings of The 15th NTCIR Conference, 122020. [5] 関根聡, 井佐原均. Irex : 情報検索、情報抽出コンテスト. Technical Report 81(1998-FI-051), ニューヨーク大学コンピュータサイエンス学科, 郵政省通信総合研究所, sep 1998. [6] 山田寞康, 工藤拓, 松本裕治. Support vector machine を用いた日本語固有表現抽出. 情報処理学会論文誌, Vol. 43, No. 1, pp. 44-53, jan 2002. [7] Satoshi Sekine, Kiyoshi Sudo, and Chikashi Nobata. Extended named entity hierarchy. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC'02), Las Palmas, Canary Islands Spain, May 2002. European Language Resources Association (ELRA). [8] Georgios Spithourakis and Sebastian Riedel. Numeracy for language models: Evaluating and improving their ability to predict numbers. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2104-2115, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9]阪本拓功, 相澤彰子. 言語モデルを用いたテキスト中の数字の予測. 情報処理学会自然言語処理研究会, 2020. [10] AkitakaMatsuo and Fukumoto Kentaro. Legislators' sentiment analysis supervised by legislators. Technical Report 38, Department of Government, University of Essex, Department of Political Science, Gakushuin University, nov 2020. [11] John Lawrence and Chris Reed. Argument mining: A survey. Computational Linguistics, Vol. 45, No. 4, pp. 765-818, December 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-14.pdf
# 半教師あり文書分類のための仮想敵対的学習による 注意機構の頑健性および解釈性の向上 北田俊輔彌冨仁 法政大学大学院 理工学研究科 応用情報工学専攻 \{shunsuke.kitada.8y@stu., iyatomi@\}hosei.ac.jp ## 1 はじめに 深層学習モデルは様々な分野で大きな成功を収めているにも関わらず、最先端のモデルであっても、大力される㩒動に対して脆弱であることが一般的に知られている $[1,2]$ 。近年、多くの研究が注目している注意機構 [3] においても同様の脆弱性が報告されている [4]。こうした摄動に対するモデルの頑健性向上のため、Goodfellow ら [2] は敵対的学習 (AT)を提案した。これはモデルを騙すような摂動である敵対的摄動から滑らかな識別境界の学習を期待するもので、モデルの頑健性や予測性能の向上が確認されている [5, 6]。著者らは自然言語処理 (NLP) 分野において注意機構に対する AT を提案し、複数の NLP タスクにおいて高い性能を達成するとともに、より解釈可能で明確な注意を示すことを確認した [7]。 AT はモデルの頑健性向上に寄与する一方、敵対的摄動の計算は教師あり学習への適用に限定される。後に ATを教師なしデータを利用可能な半教師あり設定へと拡張した仮想敵対的学習 (VAT) が提案され [8]、優れた成果が報告されている $[6,9]$ 。この手法は現在の予測に基づいて敵対的摄動の方向を計算することで、教師なしデータを含むすべてのデータを活用して識別境界を滑らかにする効果があり、結果的にモデルの頑健性向上が期待できる。一方で、図 1 に示すような注意機構に対するVAT の有効性について、特に NLP タスクの観点から同様の効果を示した研究は著者らが知る限り存在しない。 本論文では、VAT に基づいた注意機構のための仮想敵対的学習である仮想敵対的注意学習 (Attention VAT) ならびに、より解釈可能性の高い注意機構のための敵対的学習 [7] を半教師あり学習である VAT で拡張した Attention iVAT を提案する。我々の Attention VAT/iVAT は、著者らの提案する仮説である、予測に寄与しうる重要な単語を見つけるために 図 1: 提案法である仮想敵対的注意学習 (Attention VAT/iVAT) の概念図。本手法は利用できるすべてのデータから仮想的な敵対的摂動 $\boldsymbol{r}_{\mathrm{VAT}}$ を計算することで識別境界の平滑化を期待する。このときの摂動は注意機構に対するノルム $\epsilon$ によって定義される。 は単語の埋め込みそのものよりも注意の重みが重要である [7] という主張に基づいている。我々の学習法は注意機構を有する様々なモデルに適用可能な汎用性の高い学習法である。 我々の提案の効果を実証するために、広く評価に利用されている文書分類データセットを用いて最新の AT/VATを元にした学習法と比較した。また、提案法で得られた注意の重みが (i) 勾配によって計算される単語の重要度と、(ii) 人手によってアノテー ションされた予測根拠との一致度を評価した。 本研究の貢献我々の注意機構に対する仮想敵対的学習を評価した結果、次のような知見が得られた: (1) 従来の AT ベースの手法だけでなく、最新の VAT ベースの手法と比較して、半教師あり設定下での予測性能が有意に優れていた; (2) 学習された注意の重みが勾配を元にした単語の重要度とより強い相関を示し、人手による予測根拠とより良い一致を示した; (3) 教師なしデータの量を最大 7 倍程度まで増やすことで予測性能が向上した。 ## 2 注意機構のための仮想敵対的学習 本章では、提案する Attention VAT および Attention iVAT と呼ぶ仮想敵対的注意学習について説明する。提案法を適用するモデルの詳細は付録 A に示す。 ## 2.1 仮想敵対的注意学習 Attention VAT は、VAT [8] から着想を得たものであり、著者らが提案した Attention AT [7] の拡張と捉えることができる。AT が教師ありデータに基づいて敵対的摂動を決定するのに対し、VAT は教師なしデータからも “仮想的”な敵対的摄動を計算できる。 このとき注意機構に対する仮想敵対的摂動は、元の学習サンプルに対するモデルの予測出力の分布と、元の学習サンプルに摂動を加えた場合に対するモデルの予測出力の分布との KL ダイバージェンスを最大化する方向の摂動であり、注意機構に対する最悪の摂動として定義される。 本研究では半教師あり学習の設定として、教師ありデータからなる集合 $D$ と教師ありおよび教師なしデータからなる集合 D'を学習対象とする。なお教師ありデータ数を $N_{1}$ と教師なしデータ数を $N_{\mathrm{ul}}$ と表す。摄動 $\boldsymbol{r}$ が注意スコアに加えられた際の入力単語列 $X_{\tilde{a}}$ を、 $X_{\tilde{a}+r}$ として表す。Attention VAT は注意スコア付き入力単語列に対して仮想敵対的摂動 $r_{\mathrm{VAT}}$ を推定するために、以下の損失項を最小化する: $ \begin{gathered} \mathscr{L}_{\mathrm{VAT}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{VAT}}} ; \hat{\boldsymbol{\theta}}\right)=\frac{1}{\left|\mathscr{D}^{\prime}\right|} \sum_{X \in \mathscr{D}^{\prime}} \mathscr{L}_{\mathrm{KL}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{VAT}}} ; \hat{\boldsymbol{\theta}}\right) \\ \boldsymbol{r}_{\mathrm{VAT}}=\underset{\boldsymbol{r}:\|\boldsymbol{r}\|_{2} \leq \boldsymbol{\epsilon}}{\operatorname{argmax}} \mathscr{L}_{\mathrm{KL}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}} ; \hat{\boldsymbol{\theta}}\right) \end{gathered} $ $\left|D^{\prime}\right|=N_{\mathrm{l}}+N_{\mathrm{ul}}$ は学習対象の全データ数、 $\epsilon$ は摂動のノルムを制御するハイパーパラメータ、 $\hat{\boldsymbol{\theta}}$ は現在のモデルの全パラメータである。ここで $\mathscr{L}_{\mathrm{KL}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}} ; \hat{\boldsymbol{\theta}}\right)$ は $\mathrm{KL}(\cdot \| \cdot)$ で計算される KL ダイバージェンスである: $ \mathscr{L}_{\mathrm{KL}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{VAT}}} ; \hat{\boldsymbol{\theta}}\right)=\operatorname{KL}\left(p\left(\cdot \mid X_{\tilde{\boldsymbol{a}}}, \hat{\boldsymbol{\theta}}\right) \| p\left(\cdot \mid X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{VAT}}}, \hat{\boldsymbol{\theta}}\right)\right) $ 学習時には、入力データの注意スコア $\tilde{\boldsymbol{a}}$ に対する仮想敵対的摂動 $\boldsymbol{r}_{\mathrm{VAT}}$ を現在のモデルパラメータ $\hat{\boldsymbol{\theta}}$ に基づいて計算し、その注意スコアへ付加する: $ \tilde{\boldsymbol{a}}_{\mathrm{vadv}}=\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{VAT}} $ ## 2.2 解釈可能な仮想敵対的注意学習 Attention iVAT は解釈可能な単語埋め込みに対する敵対的学習 (Word iVAT) [6] から着想を得ており、著者ら [7] によって提案された Attention iAT に対する半教師あり学習への拡張とみなすことができる。 Attention iAT と同様に我々の Attention iVAT は各単語への注意の違いを利用する一方で、我々の手法は多くの教師なしデータを扱うことで予測性能とモデルの解釈性が更に向上することを期待している。 まず $\boldsymbol{d}_{t} \in \mathbb{R}^{T}$ を、文中の $t$ 番目の単語に対する注意スコア $\tilde{a}_{t}$ と任意の $k$ 番目の単語に対する注意スコア $\tilde{a}_{k}$ との単語の注意差ベクトルを定義する: $ \boldsymbol{d}_{t}=\left(d_{t, k}\right)_{k=1}^{T}=\left(\tilde{a}_{t}-\tilde{a}_{k}\right)_{k=1}^{T} $ このベクトルを用いて、 $t$ 番目の単語に対する正規化された単語注意差ベクトルを計算する: $ \tilde{d}_{t}=d_{t} /\left.\|d_{t}\right.\|_{2} $ $t$ 番目の単語に対する注意の摄動 $r\left(\boldsymbol{\alpha}_{t}\right)$ を、訓練可能なパラメータ $\alpha_{t}=\left(\alpha_{t, k}\right)_{t=1}^{T} \in \mathbb{R}^{T}$ と正規化された注意度差ベクトル $\tilde{\boldsymbol{d}}_{t}$ を使って $r\left(\boldsymbol{\alpha}_{t}\right)=\boldsymbol{\alpha}_{t}^{\top} \cdot \tilde{\boldsymbol{d}}_{t}$ と定義する。全ての $t$ に対する $\alpha_{t}$ を $\alpha$ として、入力文に対する敵対的摂動 $\boldsymbol{r}(\boldsymbol{\alpha})$ を計算する: $ \boldsymbol{r}(\boldsymbol{\alpha})=\left(r\left(\boldsymbol{\alpha}_{t}\right)\right)_{t=1}^{T} $ 式 2 の $X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}}$ と同様な $X_{\tilde{\boldsymbol{a}} \boldsymbol{r} \boldsymbol{r}(\boldsymbol{\alpha})}$ を導入し、損失が最大になる最悪の注意差べクトルの方向を計算する: $ \boldsymbol{r}_{\mathrm{iVAT}}=\underset{\boldsymbol{r}:\|\boldsymbol{r}\|_{2} \leq \epsilon}{\operatorname{argmax}} \mathscr{L}_{\mathrm{KL}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}+\boldsymbol{r}(\boldsymbol{\alpha})} ; \hat{\boldsymbol{\theta}}\right) $ 式 4 と同様に、注意スコア $\tilde{\boldsymbol{a}}$ に対して計算した敵対的摄動 $\boldsymbol{r}_{\text {iVAT }}$ を付加する: $ \tilde{\boldsymbol{a}}_{\mathrm{ivadv}}=\tilde{\boldsymbol{a}}+\boldsymbol{r}_{\mathrm{iVAT}} $ ## 2.3 仮想敵対的学習によるモデルの学習 学習時には、現在のモデル $\hat{\boldsymbol{\theta}}$ に基づいて、仮想敵対的摄動を生成する。このとき生成した摄動を元に、以下の 2 つの損失項を最小化する: $ \tilde{\mathscr{L}}=\underbrace{\mathscr{L}\left(X_{\tilde{\boldsymbol{a}}}, \boldsymbol{y} ; \hat{\boldsymbol{\theta}}\right)}_{\begin{array}{c} \text { The loss from } \\ \text { unmodified examples } \end{array}}+\underbrace{\lambda \mathscr{L}_{\mathrm{VAT}}\left(X_{\tilde{\boldsymbol{a}}}, X_{\tilde{\boldsymbol{a}}_{\mathrm{VADV}}} ; \hat{\boldsymbol{\theta}}\right)}_{\begin{array}{c} \text { The loss from } \\ \text { virtual adversarial examples } \end{array}}, $ $\lambda$ は各損失項を制御するハイパーパラメータである。ここで、 $X_{\tilde{\boldsymbol{a}}_{\text {VAV }}}$ は Attention VAT において $X_{\tilde{\boldsymbol{a}}_{\text {vad }}}$ であり、Attention iVAT において $X_{\tilde{\boldsymbol{a}}_{\text {vadv }}}$ である。 ## 3 実験設定 本章では、評価に使用するモデルの設定やデータセット、評価基準について述べる。 ## 3.1 モデルの設定と評価データセット 付録 A に示すべースラインモデルに対して、我々の提案する 2 つの手法 Attention VAT/iVAT と最新の AT/VAT 手法を教師ありおよび半教師あり設定で比較した。比較手法の詳細を付録 B に示す。評価用データセットとして、教師ありデータセット [10,11]、教師なしデータセットとして [12]を使用し、学習用、検証用、テスト用にそれぞれ分割した。これらの詳細を付録 C に示す。 ## 3.2 評価基準 予測性能提案法および比較法によって学習させたモデルの予測性能を比較した。評価指標として、 [4,7] に従って F1 スコアを用いた。各モデルはそれぞれ教師ありおよび半教師ありの設定で評価した。 単語の重要度との相関提案法および比較法を適用したモデルによって得られる注意の重みと勾配を元にした単語の重要度 [13] との一致度を比較した。 この一致度を評価するために、注意の重みと単語の重要度との間のピアソン相関で比較した。 予測根拠の再現性提案法および比較法を適用したモデルによって得られる注意の重みと、人手によってアノテーションされた予測根拠の一致度を ERASER ベンチマーク [14]を用いて比較した。 教師なしデータの効果半教師あり学習における教師なしデータの効果を理解するため、教師なしデータの量とモデルの予測性能の関係を分析した。 ## 4 実験結果 本章では、前章に示した評価基準を元に実験した結果を共有する。表 1 は教師ありおよび半教師あり設定における各モデルの (1) 予測性能 (F1 スコア)、 および (2) 注意の重みと勾配を元にした単語の重要度との間のピアソン相関 (Corr.) を示す。 予測性能教師ありの設定において、提案法である Attention VAT/iVAT は (1) vanilla モデルと比較して明らかな優位性を示し、(2) 単語埋め込みに対する AT (Word AT/iAT) [5, 6] と比較しても優れた性能を示した。さらに (3) 注意機構に対する AT (Attention AT/iAT) [7] と同等の性能を示した。以上より、注意表 1: 教師ありおよび半教師ありモデルに対する、予測性能 (F1 スコア) および注意と勾配を元にした単語の重要度のピアソン相関係数 (Corr.) の比較 (a) 教師ありモデル } & \multicolumn{2}{|c|}{} \\ (b) 半教師ありモデル 機構に対する AT/VAT の有効性を確認できた。 半教師ありの設定において、Word VAT/iVAT は Word AT/iAT より、また提案する Attention VAT/iVAT も同様に Attention AT/iAT より有意な予測性能の向上ならびに勾配に基づく単語の重要度とより高い相関を示し、特に提案法は最もよい結果となった。各タスクの学習に追加で教師なしデータを利用することで、我々の手法を適用したモデル、特に Attention iVAT では予測性能が大幅に向上したと考えられる。 単語の重要度との相関注意の重みと単語の重要度の相関については、我々の Attention VAT/iVAT で得られた単語への注意は、勾配によって計算された単語の重要度と強く相関していることを確認した。この傾向は我々の手法のヒントとなった [7] の Attention AT/iAT においても報告されている。我々は、VATを用いた半教師あり設定がこれらの相関も顕著な影響を与えていることを観測した。こうした相関は我々の提案法により強化されたと言える。 予測根拠の再現性表 2 は vanilla モデルと半教師ありモデルにおける根拠選択の予測性能を示す。提 表 2: 根拠選択における各モデルの予測性能 † DeYoung ら [14] は根拠選択に最適化されたモデルを構築しているのに対し、我々の手法を適用したモデルは根拠選択を直接最適化しているわけではない。 案する Attention VAT/iVAT は注意の重みを元にした根拠選択において、人手のアノテーションとの一致度が高いことを示した。他の AT/VAT ベースの手法と比較して、特に我々の Attention iVAT が全ての評価基準において優れていることが分かった。 教師なしデータの効果図 2 は教師なしデータの量とモデルの検証スコアの関係を示す。VAT ベー スの手法において、教師なしデータの数が教師ありデータの数の約 7 倍程度になるまで予測性能の向上を確認した。本実験において我々が教師なしデー タとして使用したソースは、元のデータセットとは性質や品質が異なるものである (詳細は付録 $\mathrm{C}$ を参照)。それにも関わらず提案法がモデルの性能と解釈性の両者を向上させたことは注目に値する。 ## 5 議論と今後の展望 本研究では、Attention VAT および Attention iVAT と呼ぶ仮想敵対的注意学習を提案し、教師ありおよび半教師あり設定にて提案法の有効性を確認した。 ## 5.1 注意機構に対する AT/VAT 教師あり設定において、我々のVAT ベースの手法は 2 つの側面 (1) 予測性能 (2) 単語の重要度との相関で、AT ベースの手法と同程度向上した。AT は実際の教師情報を使用する一方で、VAT はモデルの予測出力を利用している。そのため教師あり設定において AT は VAT よりも良い性能であることが期待されるが、VAT が同程度の性能を表したことにより、提案法に対して否定的な結果は得られなかった。 半教師あり設定において、我々の VAT ベースの手法は上記 2 つの側面を更に効果的に向上させていることを確認した。これは多くの教師なしデータを利用することで、識別境界をより滑らかにする VAT の効果を更に高めていると考えられる。特に単語の (a) $\operatorname{SST}\left(N_{1}=6,920\right)$ (b) $\operatorname{IMDB}\left(N_{1}=17,186\right)$ 図 2: SST [10] と IMDB [11] に対する教師なしデー タ [12]の量と各学習法による検証スコアの関係 埋め込みではなく注意機構に VATを適用することで、モデルの頑健性 (予測性能) が向上し、さらには解釈性 (人手による根拠との一致度) も向上した。 実験では、提案法を含む VATベースの手法において、教師ありデータと異なるソースを教師なしデー タとして使用したにもかかわらず好ましい性能を示した。これは提案法の汎用性の高さを示していると考えられる。今後は、教師ありデータに教師なしデータを構築し、提案法の効果を検証したい。 ## 5.2 人手による根拠との一致性 我々の提案法である Attention iVAT は、他の手法と比較して人手による根拠のアノテーションとの一致率が高かった。これは式 6 に示すように、 Attention iVAT では単語注意差のノルムは 1 に正規化されるため、各単語に対する注意度の差異がより明確になるとともに、より効果のある仮想的な敵対的摄動が得られているためと考えられる。この類似の性質は著者ら [7] の Attention iAT においても同様の議論がされている。さらにこうした明確な注意と仮想敵対的摄動に伴う注意は、言語の解析や理解に必要な注意の普遍的な特徴を学習すると期待できるため、今後さらなる分析を行っていきたい。 ## 参考文献 [1] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, and Rob Fergus. Intriguing properties of neural networks. In 2nd International Conference on Learning Representations, ICLR, Conference Track Proceedings, 2013. [2] Ian J Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. In $3 r d$ International Conference on Learning Representations, ICLR, Conference Track Proceedings, 2014. [3] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014. [4] Sarthak Jain and Byron C Wallace. Attention is not explanation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), Association for Computational Linguistics (ACL), pp. 3543-3556, 2019. [5] Takeru Miyato, Andrew M Dai, and Ian Goodfellow. Adversarial training methods for semi-supervised text classification. In 5th International Conference on Learning Representations, ICLR, Conference Track Proceedings, 2016. [6] Motoki Sato, Jun Suzuki, Hiroyuki Shindo, and Yuji Matsumoto. Interpretable adversarial perturbation in input embedding space for text. In Proceedings of the 27th International Joint Conference on Artificial Intelligence, AAAI Press, pp. 4323-4330, 2018. [7] Shunsuke Kitada and Hitoshi Iyatomi. Attention meets perturbations: Robust and interpretable attention with adversarial training. CoRR arXiv:2009.12064, 2020. [8] Takeru Miyato, Shin-ichi Maeda, Masanori Koyama, and Shin Ishii. Virtual adversarial training: a regularization method for supervised and semi-supervised learning. IEEE transactions on pattern analysis and machine intelligence, Vol. 41, No. 8, pp. 1979-1993, 2018. [9] Luoxin Chen, Weitong Ruan, Xinyue Liu, and Jianhua Lu. Seqvat: Virtual adversarial training for semi-supervised sequence labeling. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics (ACL), pp. 8801-8811, 2020 [10] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, Association for Computational Linguistics (ACL), pp. 1631-1642, 2013. [11] Andrew L Maas, Raymond E Daly, Peter T Pham, Dan Huang, Andrew Y Ng, and Christopher Potts. Learning word vectors for sentiment analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, Vol. 1 of Association for Computational Linguistics (ACL), pp. 142150, 2011. [12] Ciprian Chelba, Tomas Mikolov, Mike Schuster, Qi Ge, Thorsten Brants, Phillipp Koehn, and Tony Robinson. One billion word benchmark for measuring progress in statistical language modeling. In Proceedings of the 15th Annual Conference of the International Speech Communication Association, International Speech Communication Association (ISCA), pp. 2635-2639, 2014. [13] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. In 2nd International Conference on Learning Representations, ICLR, Workshop Track Proceedings, 2013. [14] Jay DeYoung, Sarthak Jain, Nazneen Fatema Rajani, Eric Lehman, Caiming Xiong, Richard Socher, and Byron C Wallace. Eraser: A benchmark to evaluate rationalized nlp models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics (ACL), pp. 4443-4458, 2019. ## A Vanilla モデルの構築と学習 本章では、ベースラインとなる vanilla モデルについて述べる。このモデルは先行研究 $[4,7]$ がその提案の有効性を示すために使われている。本研究では広範囲に渡って検証がされているその recurrent neural network (RNN) を元にしたモデルをべースラインとして使用した。 ## A. 1 注意機構を有するモデルの構築 まず $X$ を one-hot エンコーディングされた単語列 $X=\left(\boldsymbol{x}_{1}, \cdots, \boldsymbol{x}_{T}\right) \in \mathbb{R}^{|V| \times T}$ と表す。なお $T$ は単語列中の単語数、 $|V|$ は語彙数を表す。ここで、単語列を表す表現の省略形である $\left(\boldsymbol{x}_{1}, \cdots, \boldsymbol{x}_{T}\right)$ as $\left(\boldsymbol{x}_{t}\right)_{t=1}^{T}$ を導入する。次に、 $x_{t}$ に対応する $d$ 次元の単語埋め込み表現を $\boldsymbol{w}_{t} \in \mathbb{R}^{d}$ とする。このとき、単語列に対する単語埋め込みは $\left(\boldsymbol{w}_{t}\right)_{t=1}^{T} \in \mathbb{R}^{d \times T}$ と表す。この単語埋め込み表現を双方向 RNN Encを用いて $m$ 次元の隠れ表現 $\boldsymbol{h}_{t}$ としてエンコードする: $\boldsymbol{h}_{t}=\mathbf{E n c}\left(\boldsymbol{w}_{t}, \boldsymbol{h}_{t-1}\right)$ 。次に、[3] が提案した additive function を用いて、 $t$ 番目の単語に対する注意スコア $\tilde{a}_{t}$ を $\tilde{a}_{t}=\boldsymbol{c}^{\top} \tanh \left(W \boldsymbol{h}_{t}+\boldsymbol{b}\right)$ として定義する。なお $W \in \mathbb{R}^{d^{\prime} \times m}$ と $\boldsymbol{b}, \boldsymbol{c} \in \mathbb{R}^{d^{\prime}}$ はモデルパラメータである。 そして、文全体に対する注意スコア $\tilde{\boldsymbol{a}}=\left(\tilde{a}_{t}\right)_{t=1}^{T}$ から、全単語の注意の重み $\boldsymbol{a} \in \mathbb{R}^{T}$ を計算する。 $ \boldsymbol{a}=\left(a_{t}\right)_{t=1}^{T}=\operatorname{softmax}(\tilde{\boldsymbol{a}}) $ 注意の重み $\boldsymbol{a}$ と隠れ表現 $\boldsymbol{h}_{t}$ を用いて加重平均 $\boldsymbol{h}_{\boldsymbol{a}}$ を計算する: $\boldsymbol{h}_{\boldsymbol{a}}=\sum_{t=1}^{T} a_{t} \boldsymbol{h}_{t}$ 。 上記の $\boldsymbol{h}_{\boldsymbol{a}}$ は全結合層 Decへと入力され、最終的な予測値を出力する: $\hat{\boldsymbol{y}}=\sigma\left(\boldsymbol{D e c}\left(\boldsymbol{h}_{\boldsymbol{a}}\right)\right) \in \mathbb{R}^{|\boldsymbol{y}|}$ 。このとき $\sigma$ は活性化関数であり、 $|\boldsymbol{y}|$ は予測するクラスの数である。 ## A. 2 注意機構を有するモデルの学習 学習時には、モデルは注意スコア $\tilde{\boldsymbol{a}}$ である単語列 $X$ である $X_{\tilde{a}}$ から、 $\boldsymbol{y}$ の条件付き確率を学習する: $p\left(\boldsymbol{y} \mid X_{\tilde{\boldsymbol{a}}} ; \boldsymbol{\theta}\right)$ 。ここで、 $\boldsymbol{\theta}$ はモデルの全パラメータである。このとき、(教師ありの) 学習データ Dを用いて損失項である以下の負の対数尤度を最小化する: $ \mathscr{L}\left(X_{\tilde{\boldsymbol{a}}}, \boldsymbol{y} ; \boldsymbol{\theta}\right)=\frac{1}{|\mathscr{D}|} \sum_{(X, \boldsymbol{y}) \in \mathscr{D}}-\log p\left(\boldsymbol{y} \mid X_{\tilde{\boldsymbol{a}}} ; \boldsymbol{\theta}\right) $ ## B モデルの設定 我々は提案法である Attention VAT/iVATを含む、最新の AT および VAT ベースの学習法を比較した。 これらは付録 A に示すべースラインに対して適用表 3: 評価用データセットの統計量。評価には一般的に知られているデータセットを使用した。データセットを学習 (train) セット、検証 (valid) セット、評価 (test) セットに分割した。分割方法と前処理は著 者ら [7] の先行研究と同様である。 しており、平等な比較のために $[4,7]$ の実験設定に則った。本研究では、教師ありおよび半教師あり設定の下、以下のモデルを比較した: 教師ありモデル vanilla [4]、Word AT [5]、Word iAT [6]、Attention AT [7]、Attention iAT [7]、そして提案法である Attention VAT および Attention iVAT 半教師ありモデルとして、Word AT [5]、Word iVAT [6]、そして提案法である Attention VAT および Attention iVAT ## C データセットとタスク 表 3 は教師ありデータの統計量を示す。我々は [4] および [7] に従って、実験で使用するデータセットを学習用、検証用、テスト用に分割し、それぞれ前処理を実施した。本研究では、以下の教師ありおよび教師なしデータセットを使用した: 教師ありデータセット Standard Sentiment Treebank (SST) [10], IMDB, a large movie reviews corpus [11] を使用した。これらのデータセットは文がポジティブかネガティブかの感情が付与されており、これらを予測するようにモデルを学習させた。 教師なしデータセット One Billion Word Language Model Benchmark [12] を半教師あり学習のためのラベルなしデータとして利用した。このベンチマークは言語モデルを評価するために幅広く利用されており、近年の VAT ベースの研究である [9]においても使用されている。従って、我々はこのデータセットが私達の実験においても有効であると考え採用した。教師ありデータサイズが比較的小さいことを考慮して、教師なしデータの $1 \%$ 無作為にサンプリングし、半教師あり学習における教師なしデータとして使用した。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-15.pdf
# 能動的サンプリングを用いた リソース構築共有タスクにおける予測対象データ削減 $\dagger$ 理化学研究所 ‡ 筑波大学 \{kouta.nakayama, shuhei.kurita, satoshi.sekine\}@riken.jp \{baba\}@cs.tsukuba.ac.jp ## 1 はじめに 今日まで、多くの共有タスクが自然言語処理の進歩に大きく貢献してきた。しかし、それらタスクのほとんどは技術開発が目的であり、タスク内で実際に構築されたシステムや予測結果等の共有を目的としない場合が多い。この様な参加者の努力が浪費されている状況は無視できるものではない。近年、タスク参加者による努力をリソース構築といった形で共有する “Resource by Collaborative Contribution(RbCC)”[1] という考え方が考案された。 $\mathrm{RbCC}$ に準拠するリソース構築共有タスクでは、参加者は予め指定された範囲のラベル無しデータを受け取り、その全てに対する予測結果を提出する必要がある。評価は一部の隠されたデータにより行われる。参加者から得られた複数の予測結果はアンサンブル等により統合され、最終的に知識ベースなどのリソースとして公開される。実際に RbCC に準拠するタスクが行われ $[1,2]$ 、アンサンブル手法も提案されてきた [3]。RbCC の最終目的はリソース範囲全てのデータに対する予測結果を得ることであり、過去のタスクでは参加者は範囲全てのデータに対する予測の提出が要求されている。しかしリソースのサイズ次第では、予測にかかる計算コストは無視できず、タスク参加への高いハードルとなり得ると考える。タスク参加者ごとで予測範囲を分配することも考えられるが、データ間で品質のばらつきが発生する可能性は捨てきれない。最良スコアを獲得した参加者のみ全件予測を依頼することも可能だが、採択されなかった参加者の努力の浪費につながり、これは $\mathrm{RbCC}$ の本意ではない。整理すると、負担軽減の理想は、提出データを削減しつつ最良システム以上のスコアで提出範囲外の最終予測を補完可能なこ とである。 本研究では、実際に RbCC に準拠するタスクを有する森羅プロジェクトで用いられているアンサンブル手法である Pre-Distillation Ensemble(PDE)[3] に能動学習 [4] の考え方を組み合わせることで、最終的なリソースの品質を落とさず予測対象データを削減し、参加者の負担軽減を試みる。実際のリソース共有タスクにおいて、提案手法が効果的に参加者の負担を削減できることを示すため、森羅プロジェクトの一つである SHINRA2020-ML[5] の結果を用いて予備実験を行う。終わりに、その結果を用いて次年度以降の森羅プロジェクトにおける適用可能性について考える。 ## 2 手法 ## 2.1 Pre-Distillation Ensemble(PDE) PDE[3] は、教師ありモデルの予測結果を統合する手法である。PDEでは、初めに各参加システムの予測結果を学習データとして用い、新規モデルを学習する。モデルの結果から新規モデルを学習することを蒸留と呼ぶ。蒸留に用いるモデルは、図 1 上部に示すような主たる共有モデルに対し各システムの出力値再現を担当する専用モデルをそれぞれ接続する形で構成され、並列に全てのシステムの予測を行う。蒸留時、専用モデルのパラメーター数が小さければ、各システムの出力予測に必要な情報の多くは共有モデルへと埋め込まれる。その後、図 1 下部のように学習済み共有モデルに対し新たな専用モデルを接続し、各参加システムの学習に使用されたラベル付きデータを用いてモデルを再学習する。学習中、新たに接続された出力モデルは、共有モデルに埋め込まれた各システムの情報をもとに、新たな予 アンサンブル予測 共有タスク学垍データ 図 1 本研究で使用する PDE モデル 測を出力する。PDEでは、このモデルの出力結果を擬似的なアンサンブル結果として扱っている。計 2 回行われる学習はそれぞれ蒸留段階、アンサンブル段階と呼ぶ。 ## 2.2 能動学習 教師ありモデルを学習する場合、ラベル無しデー タに対してアノテーションを施し学習データを作成する必要がある。一般的にアノテーションはコストがかかるため、少ないアノテーション数でより高性能なモデルが学習できることが望まれる。能動学習 (Active Learning)[4] は、ある時点で既にアノテー ションが施されたデータにより学習されたモデルの予測結果等を用いて、モデルの評価値を最も向上することができるような次のアノテーション対象を能動的にサンプリングする機械学習フレームワークである。一般的に能動学習におけるアノテーション結果は専門家やクラウドワーカーへの問い合わせによって得られる。自然言語処理においても様々な夕スクにおいて用いられており、様々な手法が開発されている。能動学習の古典的手法として不確実性サンプリング (Uncertainty Sampling)[6] が挙げられる。不確実性サンプリングでは、モデルの予測值が決定境界に近いインスタンスが次のアノテーション対象として選択される。 ## 2.3 提案手法 RbCC に準拠するタスクにおいて、提出される予測対象の多さが参加者の負担となり得ることは 1 章で述べたとおりである。本論文では、参加者の負担軽減のため、PDE と能動学習を組み合わせることで、最終的なリソースの品質を落とさずに予測対象データの削減を試みる。 PDEでは、システムの予測結果は蒸留に使用され るが、直接的にアンサンブル結果に使用されることはない。そのため、PDEに用いるシステムの予測結果は全ての範囲に対するものである必要はない。つまり、最終的なアンサンブル予測を最も洗練できるような蒸留対象を選択することでスコアを担保しながら参加者に要求する予測対象を削減することができると考える。蒸留対象の選択が、参加システムに対する問いあわせであると考えると、能動学習のフレームワークを直接対応できる。本論文では、PDE と能動学習の組み合わせの優位性を予備実験的に示すため、不確実性サンプリングを用いて、タスク参加者に問い合わせるラベル無しデータのサンプルを決定する。 ## 3 SHINRA2020-ML SHINRA2020-ML[5] は、NTCIR-15[7] の 1 つであり、拡張固有表現 (ENE) 階層 [8] 30 言語の Wikipedia 記事を分類するタスクである。ENE 階層は約 200 の末端カテゴリーを持っており、1つのページが複数の末端カテゴリーに属する場合もある。そのため、SHINRA2020-ML は多ラベル文章分類タスクである。学習データは、日本語 Wikipedia をENE 階層へと分類した日本語分類済みデータ [9] と、日本語 Wikipedia から他言語への言語間リンクを用いて作成される。予測対象は各言語の全 Wikipedia 記事である。これは各言語ごと異なり、最大で 5,790,377 件、最小で 129,141 件であり、 30 言語全ての合計は、32,302,922 件である1)。予測対象には学習データの範囲に対する記事も含まれるため、再度予測し提出する必要がある。評価データは各言語 1000 件用意されるが、 $\mathrm{RbCC}$ の考えに基づき参加者には配布されない。評価は提出データ中の  & 予測対象 & & & & ランダム & 不確実性 & \\ ドイツ語 & 36,400 & $2,262,582$ & $98.39 \%$ & 274,732 & 80.53 & $\mathbf{8 1 . 9 0}$ & $\mathbf{8 1 . 6 3}$ & 81.86 \\ 英語 & 38,400 & $5,790,377$ & $99.34 \%$ & 439,354 & 81.56 & $\mathbf{8 1 . 7 2}$ & $\mathbf{8 2 . 6 5}$ & 82.73 \\ スペイン語 & 37,400 & $1,500,013$ & $97.51 \%$ & 257,835 & 80.51 & $\mathbf{8 0 . 5 5}$ & 79.98 & 81.39 \\ フランス語 & 37,200 & $2,074,648$ & $98.21 \%$ & 318,828 & 81.01 & 80.41 & 80.87 & 81.01 \\ イタリア語 & 36,200 & $1,496,975$ & $97.58 \%$ & 270,295 & 82.08 & $\underline{\mathbf{8 2 . 8 8}}$ & $\mathbf{8 2 . 8 9}$ & 82.81 \\ ポルトガル語 & 36,200 & $1,014,832$ & $96.43 \%$ & 217,896 & 81.01 & 80.75 & $\mathbf{8 1 . 8 2}$ & 83.23 \\ トルコ語 & 35,200 & 321,937 & $89.07 \%$ & 111,592 & 82.53 & $\mathbf{8 3 . 1 2}$ & $\mathbf{8 4 . 8 8}$ & 86.50 \\ 中国語 & 37,200 & $1,041,039$ & $96.43 \%$ & 267,107 & 78.15 & $\mathbf{7 8 . 5 1}$ & $\mathbf{7 8 . 8 8}$ & 81.25 \\ 表 1 能動的サンプリングを用いた予測対象データ削減結果 相当する部分を用いて行われる。SHINRA2020-ML は、 2020 年 8 月まで行われ、合計で 7 チーム 12 システム ${ }^{2)}$ の結果が提出された [7]。 ## 4 実験 提案手法が $\mathrm{RbCC}$ に準拠する共有タスクにおいて効果的に機能することを予備的に示すため、 SHINRA2020-ML に提出されたシステム出力を用いて実験を行う。本研究では、SHINRA2020-ML の内、参加システムが最も多かった 8 言語に英語を加えた 9 言語を対象とする。 ## 4.1 能動的サンプリング タスク参加者に配布するサンプルを能動的に推定するため、SHINRA2020-ML で配布されたラべル付きデータを使用してニューラルモデルを学習する。ラベル付きデータの $90 \%$ を学習データとし、残りを開発データとして用いる。モデルは、事前学習済み言語モデルである BERT[10] 1 層の全結合層を接続する形で構成される。一般的に BERT では、位置埋め込みの都合上扱うことのできる最大トークン長が限られており、我々が実験に使用するXLM-RoBERTa-base[11] では、512トー クンに制限されている。本実験では Wikipedia の先頭 510 トークンのみを使用して分類を行なった ${ }^{3)}$ 。 XLM-RoBERTa は、RoBERTa[12] のモデル構造と手  法をべースに、100 言語にわたる約 $2.5 \mathrm{~T}$ バイトの CommonCrawl データから事前学習したモデルである。トークナイズと語彙圧縮には SentencePiece[13] を用いており、語彙数は合計で 250,000 トークンである。本研究では、XLM-RoBERTaを各言語ごとに学習するが、その場合、語彙中の多くが低頻度トー クンとなる。低頻度トークンに関する計算が、全体の学習速度や使用する GPUメモリーを圧迫することを防ぐため、各言語の学習データ中に高頻度で出現する 24000 トークン4) のみを使用し、残りのトー クンは未知語として扱う。多ラベル分類を、各クラスごとの 2 値分類として考え、誤差関数には交差エントロピーを用いる。その他学習の詳細は付録 $\mathrm{A}$ に示す。 多ラベル分類における不確実性サンプリングには様々な手法が提案されているが、本研究では各クラスを 2 値分類タスクとみなし、各クラスごとに 200 件ずつ不確実性の高いインスタンスをサンプリングする。この際、各インスタンスは学習データにおいて出現数が高いクラスから重複が無いようサンプリングされる。また、ラベル付きインスタンスはサンプルの対象としない。最終的にサンプリングされたインスタンス数を表 1 に示す。 ## 4.2 PDE 学習 図 1 に本研究で使用する PDE モデルを示す。共有モデルには、4.1でも用いた XLM-RoBERTa-base を用い、同様の語彙数削減を行う。専用モデルには、1 層の全層結合を用いる。誤差関数も 4.1 章と  同じものを用いるが、蒸留段階のみ陽性ラベルに対して重みを付与して計算する。重みは、各システム出力ごとに陰性ラベルの総数を陽性ラベルの総数で割った数値を用いる。蒸留段階における各システム出力との複数誤差は算術平均により統合する。その他学習の詳細は付録 B に示す。 ## 5 実験結果 実際に不確実性サンプリングにより得られたサンプルに対しPDE を適用した結果を表 1 に示す。比較のため、同じ数のサンプルをランダムサンプリングにより取得し、同様に PDEを適用した。べー スモデルは、不確実性サンプリングに使用されたモデルのスコアを示しており、最良システムは SHINRA2020-ML に参加したシステムのうちの最良スコアを示している。また、ベースモデルより良いスコアを太字、最良システムより良いスコアを下線で示している。削減率は、本来の予測対象を能動的なサンプリングによりどれだけ削減できたかを示しており、この值が高いほど参加者の負担軽減につながる。評価指標は、SHINRA2020-ML と同じくF1 值のマイクロ平均である。 不確実性サンプリングを用いた場合、スペイン語、フランス語以外での言語でベースモデルより良い性能を達成していることから、モデルの性能を向上できるようなサンプルが導出できていることが分かる。しかし、アラビア語、ドイツ語、スペイン語ではランダムサンプリングを用いた場合において、不確実性サンプリングを用いた場合よりスコアが高い。これは、蒸留段階における本来のクラス分布と大きく異なったサンプルの選択が、アンサンブル段階後のモデルの出力分布に負の影響を及ぼす可能性を示唆している。この問題は、各クラスごと均等数の不確実性サンプリングではなく、実際の学習デー タの分布を用いてサンプルの割合を決定することで解決できる可能性がある。 最良システムとの比較では、イタリア語において不確害性サンプリングを用いた手法が良いスコアを残している。イタリア語では予測対象データの $97 \%$以上の削減に成功しており、タスク参加者の負担軽減に大きく貢献している。残りの言語においては、最良システムに対し不確実性サンプリングが劣っている結果になっているが、これらは PDE に用いたモデルが文章の先頭のみの情報から分類を行なっていることが要因の一つであると考えられる。実際に SHINRA2020-ML に参加したシステムには、より広い範囲の文章を参照するシステムや、言語間リンクや記事に付与された画像等追加の付加情報を使用するシステムがあり、現状のモデルとの間で入力情報量に差異が生まれてしまっていることは否定できない。本研究は予備実験のため、簡易なモデル設計を行なったが、今後実際に共有タスクで適用する場合には、PDE モデルは様々な入力に対応できる設計が好ましい。また、アラビア語では、不確実性サンプリングを用いた場合のスコアが大きく劣っているが、ベースモデルのスコアはさらに大きく劣っていることから、対象言語におけるモデルの学習法自体に大きな問題が存在する可能性があり、これについては今後学習法の見直しを考えている。 ## 6 おわりに-今後の展望 本研究では、実際に RbCC に準拠するリソース構築タスクで使用されているアンサンブル手法である PDE と、能動学習のフレームワークを組み合わせることで、タスク参加者が提出を求められる予測対象データを削減する手法を提案した。 SHINRA2020-ML の結果を用いて予備実験を行ったところ、提案手法は 9 カテゴリーのうち 1 カテゴリーで 97\%以上の予測対象データを削減した上で、最良システム以上のスコアで削減された範囲を補完できた。また、残りの8カテゴリー中6カテゴリー においても、F1 值の劣化を 1.7 以内に収めた上で、 89\% 99\%予測対象を削減できることが分かった。 今後は全てのカテゴリーにおける最良システム以上の補完を目指し、サンプリング手法やサンプルサイズを変化させた場合の実験や、より多くの情報を活用したモデルの設計等の改善を行いたいと考えている。また、改善手法は 2021 年に開催する SHINRA2021-ML タスクに対し適用する予定である。具体的には、本手法により能動的に推定されたサンプルをリーダーボードの提出データに含めることを考えている5)。リーダーボードに提出したデー タ内で最終評価を行うことも視野に入れており、積極的に一部予測のみの最終提出を受け入れる予定である $[14]$ ## 参考文献 [1] Satoshi Sekine, Akio Kobayashi, and Kouta Nakayama. SHINRA: Structuring Wikipedia by Collaborative Con- 5)リーダーボード上における評価は、その一部で行われる。 tribution. In Submitted to Automated Knowledge Base Construction, 2019. [2] 小林暁雄, 中山功太, 安藤まや, 関根聡. Wikipedia 構造化プロジェクト「森羅 2019-JP」. 言語処理学会第 26 回年次大会, 2020. [3] 中山功太, 栗田修平, 小林暁雄, 関根聡. Pre-Distillation Ensemble:リソース構築タスクのためのアンサンブル手法. 言語処理学会第 26 回年次大会, 2020. [4] Burr Settles. Active learning literature survey. Computer Sciences Technical Report 1648, University of WisconsinMadison, 2009. [5] Satoshi Sekine, Masako Nomoto, Kouta Nakayama, Asuka Sumida, Koji Matsuda, and Maya Ando. Overview of shinra2020-ml task. In Proceedings of the NTCIR-15 Conference, 2020. [6] David D. Lewis and Jason Catlett. Heterogeneous uncertainty sampling for supervised learning. In William W. Cohen and Haym Hirsh, editors, ICML, pp. 148-156. Morgan Kaufmann, 1994. [7] Yiqun Liu, Makoto P. Kato, and Noriko Kando. Overview of ntcir-15. In Proceedings of the NTCIR-15 Conference, 2020. [8] Sekine Satoshi. Extended named entity ontology with attribute information. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [9] Masatoshi Suzuki, Koji Matsuda, Satoshi Sekine, Naoaki Okazaki, and Kentaro Inui. A joint neural model for fine-grained named entity classification of wikipedia articles. IEICE Transactions on Information and Systems, Vol. E101.D, No. 1, pp. 73-81, 2018. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [12] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019. [13] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Com- putational Linguistics. [14] 関根聡, 野本昌子, 中山功太, 隅田飛鳥, 松田耕史, 安藤まや. SHINRA2020-ML:30 言語の Wikipedia ペー ジの分類. 言語処理学会第 27 回年次大会, 2021. 表 2 本研究で用いたハイパーパラメーター ## A ベースモデル学習 学習に使用したハイパーパラメーターを表 2 に示す。学習データのサイズに合わせて、ar のバッチサイズを半分、enのバッチサイズを倍に設定している。学習時の計算コストを削減するため、 ${ }^{\text {apex }}{ }^{6)}$ (opt_level には O1 を設定) を用いて混合精度学習を行っている。 ## B PDE モデル学習 蒸留段階、アンサンブル段階に使用したハイパー パラメーターを表 2 に示す。アンサンブル段階では、ベースモデルの学習と同様に、言語ごとでのバッチサイズを設定している。学習時の計算コストを削減するため、apex(opt_level には O1を設定)を用いて混合精度学習を行っている。 6) https://github.com/NVIDIA/apex
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-16.pdf
# 時間的常識を理解する言語モデルの構築へ向けて 木村麻友子 Lis Kanashiro Pereira 小林一郎 お茶の水女子大学 \{g1720512,koba\}@is.ocha.ac.jp, kanashiro.pereira@ocha.ac.jp ## 1 はじめに テキスト内に記述された事象の時間関係を理解するためには,その事象の時間に関する常識的背景知識が必要となる. しかし,常識がテキスト内に明示的に表現されることはほとんどなく,コンピュータにそのような知識を踏まえた理解や推論をさせることは未だ挑戦的な課題となっている.自然言語処理における質問応答に関する研究は,自然言語理解一般を中心に手法の開発が進められ,近年,顕著な進歩を遂げているが,時間的常識を用いた特定の推論能力などを対象にしているものは少ない. そこで, 本研究では時間的常識に基づく理解に焦点を当て,Multiple Choice TemporAl COmmon-sense (MCTACO) [1] という自然言語で表現された事象の時間的常識を理解する課題を取り上げ,時間的常識に対する理解の精度向上を目的として手法の開発を行う. 本研究でのアプローチとして, 時間や常識に関する複数のコーパスを事前学習に用いた multi-step fine-tuning や, BERT 使用時において潜在トークンに対する Masked Language Modeling をする際に使用するデータを変更した場合の出力精度との関係を調査し考察を行った. また, これらの作成したモデルのアンサンブル学習を行い,単一モデルよりも良い結果が得られることを確認した. ## 2 関連研究 文章内のイベントに関する時間関係を正しく理解することは,自然言語理解の実現において本質的な課題であり, 近年, 時間的常識を踏まえた自然言語理解の研究が盛んになっている. Zhou ら [1] は,クラウドソーシングを使い時間に関する 5 つの特徴量 (duration, temporal ordering, typical time, frequency, stationarity)の時間的常識を集め MCTACO という新しいデータセットを作り, 時間的常識問題を解く深層学習モデルを構築したが,人の識別能力よりもお よそ $20 \%$ 精度が低い結果となった. さらに彼らは, TacoLM という時間的常識を捉えた言語モデルを構築し [2],通常の BERT [3] よりも時間関係を捉えるタスクの予測精度が高い結果を得ている。 Gururangan ら [4] は,すでに一般的なコーパスで言語モデルを事前学習しているモデルに対して,さらに対象となるドメインやタスクのデータセットで 2 段階目の事前学習を行うことによって,対象タスクの出力の精度が向上されることを示している. また, Phang ら [5] は, データ量の多い中間的な教師付きタスクを用いて 2 段階目の事前学習を行った.このアプローチを, Supplementary Training on Intermediate Labeled-data Tasks(STILTs)とし,結果として得られるターゲットタスクモデルが改善すること,特にデータの少ないタスクで BERTを使用する場合や,データに制約のある場合に学習が大幅に安定することを示している。 ## 3 提案手法 ## 3.1 multi-step fine-tuning 本研究では,MCTACO を用いて時間的常識を推定する課題を解決するモデルを構築するが,モデルの精度を向上させるため,多段階のファインチュー ニング(multi-step fine tuning)を行う. 事前学習済みの BERT を対象にして, MCTACO ではないが時間的常識に関係がありそうなタスクを採用し,それらを用いて多段階のファインチューニングを行った後に MCTACO のタスクを用いてファインチューニングすることにより,MCTACO における回答の精度向上を目指す。 ## 3.2 Masked Language Modeling 本研究では, BERT の事前学習として採用されている Masked Language modeling(以下,MLM)と Next Sentence Prediction の内のひとつである MLM に関して,MCTACO では訓練データが提供されてい ないため,検証データを用いてマスクする語彙の比率などを変えて潜在トークンを構築する。これにより,評価に用いるデータ(MCTACO)に更に適応した言語モデルを構築し, モデルの精度向上を目指す. ## 4 実験 multi-step fine-tuning による影響を調査するため, MCTACO のみ 1 段階でファインチューニングした場合と,他のデータセットを使用して 2 段階でファインチューニングした場合を比較し, 精度がどのように変化するかを分析する. また, MLM に使用するデータセットを変更することによる影響を調査するため, MCTACO を使用した場合の精度を求める。 さらに,マスクする割合1)をいくつか変更した場合の違いを分析する。 ## 4.1 使用データ 本研究では,学習用および評価用データセットとして MCTACO を使用する。また, 3.1 における 1 段階目用のデータセットとして, TimeBank[6], MATRES[7], CosmosQA[8], SWAG[9]を使用する. MCTACO,TimeBank,MATRES は時間に関するデー タセットであり, CosmosQA と SWAG は時間に限らず一般的な常識全般に関するデータセットである.表 1 にそれぞれのデータセットの統計情報を示す. 以下に各データセットの概要を示す. ## MCTACO [1] MCTACO では,時間特性に関する 5 つの特徴量 (duration, temporal ordering, typical time, frequency, stationarity)を定義しており, 自然言語で表現された事象の時間的常識を理解する課題から構成されるデータセットである. 5 つの特徴量のいずれかの特性について記述された文章とその文章に関する質問,それに対する答えを表す複数の選択肢,その選択肢に対して正解には yes, 不正解には no とラベル付けされたものから構成されている(表 2参照).  表 2 MCTACO の例 S1:He layed down on the chair and pawed at her as she ran in a circle under it. Q1:How long did he paw at her? A1:2 minutes [yes] A3:90 minutes [no] A2:2 days [no] A4:7 seconds [yes] Reasoning Type:Event Duration MCTACO では,訓練データは提供されておらず,検証データと評価データのみ提供されている。 MCTACO に対しては, huggingface $の$ transformers で提供されている分類問題用のモデルである, BertForSequenceClassification モデルを使用する.また,入力データをエンコードする際に,文章十質問文と答えは [SEP] で分けられている. ## TimeBank [6] TimeBank は, 時間的常識の中の, 特に持続時間に関するデータセットである. 文章内に含まれるイベントの持続時間が 1 日より長いか短いかによって yes, no のいずれかがラベル付けされている. TimeBank に対しても,BertForSequenceClassification モデルを使用する.また,入力データをエンコー ドする際に,文章とイベントは $[\mathrm{SEP}]$ で分けられている. ## MATRES [7] MATRES は,文章内に含まれる二つの動詞の時間関係に関するデータセットである.時間関係によって, AFTER, BEFORE, EQUAL, VAGUE のいずれかがラベル付けされている. MATRES に対しても, BertForSequenceClassification モデルを使用する.また,入力データをエンコードする際に,着目する文章中の二つの動詞の前後にタグマーカーを挿入している. MATRES は TimeBank のデータ拡張用としても用いる.その際,MATRES に含まれる時間情報を含むデータに対して TimeBankでファインチューニング済みのモデルを用いてラベル付けを行い,最終層における出力の確率値が 0.9 を超えるもののみをデー 夕拡張に用いて実験を行う。 ## CosmosQA [8] CosmosQA は, 出来事の原因や影響など,明示的に言及されていない物語の行間を読むことに焦点を当てている.時間に限らず一般的な常識全般に関するデータセットであり, 四択一の多肢選択問題である. CosmosQA に対しては, huggingface の transformers で提供されている多肢選択問題用のモデルである BertForMultipleChoice モデルを使用す る.また,入力データをエンコードする際に,文章十質問文と選択肢は [SEP] で分けられている. ## SWAG [9] SWAG は,フレーズを与えられたときに次のフレーズを常識に基づいて推測する問題のデータセットである。こちらも時間に限らず一般的な常識全般に関するデータセットであり,四択一の多肢選択問題である. SWAG に対しても,BertFormultipleChoice モデルを使用する.また,入力データをエンコードする際に,文章と選択肢は $[\mathrm{SEP}]$ で分けられている。 ## 4.2 実験設定 multi-step fine-tuning に関して,パラメータの設定を表 3 に示す。それぞれのデータセットについて予備実験を通して最も精度が良くなったパラメータ (表内太字)を使用する。 また,MLMを行う際のパラメータの設定を表 4 に示す. MLM 後に MCTACO を用いて学習, 評価する際のパラメータは表 3 の 1 行目に太字で記載のものを使用する.MLMには,huggingface の transformers ${ }^{2}$ で提供されている BertForPreTraining モデルを使用する. 両者ともにモデルには bert-base-uncased を使用し,評価指標としては Exact Match (EM) と F1 スコアを採用した.EM は各質問に対する全ての答えを正しくラベル付けすることができる確率であり,F1 スコアは適合率と再現率の調和平均である. 表 3 multi-step fine-tuning の実験設定 & & & \\ MATRES & & & & \\ 表 4 MLM の実験設定 & & & \\ ## 4.3 実験結果 multi-step fine-tuning 実験結果を表 5 に示す.  表 5 multi-step fine-tuning による実験結果 表 5 の 1 行目は,MCTACO を用いた 1 段階のファインチューニングの結果,2 行目以下はその他のデータセットを 1 段階目に使用し,MCTACO 2 段階目として用いた mulを行なった結果である. また, 4 行目は MATRES を TimeBank のデータ拡張用に用いた結果である. 表 5 には MCTACO の評価データを使用した結果,及び()内には 5 分割交差検証を行なった結果を記載している。 実験の結果,使用するデータセットによる差異はあるものの全体的には multi-step fine-tuning を行なったことによる精度の向上が確認された. 最も良い精度となったのは最下行に記載しているSWAG を 1 段階目のファインチューニングに使用した場合であった. CosmosQA と SWAG はどちらも一般的な常識全般に関するデータセットであり,二つを比較すると SWAG の方が大きなデータセットである(表 1 参照). Masked Language Modeling 実験結果を表 6 に示す. 表 6 MLMによる実験結果 こちらも表 5 と同様に,MCTACO の評価データを使用した結果,及び()内には 5 分割交差検証を行なった結果を記載している。実験の結果,最も精度が良かったのは 1 行目の,ラベルが yes のデータのみを使用し $15 \%$ マスクした場合であった。 ここで,アンサンブル学習として Max Voting を行う.いくつかのパターンで 3 つのモデルを使用し, MCTACO の評価データを用いて評価した. その結果を表 7 に示す. & $\checkmark$ & & \\ 実験の結果,アンサンブル学習による精度の向上が確認された. 特に, CosmosQAを用いて multi-step fine-tuning を行ったモデル,SWAGを用いて multistep fine-tuning を行ったモデル, MLM に MCTACO を用いたモデルの 3 つを使用したパターン 2 が最も精度が良くなった.この結果は,Zhou ら [1] の実験結果(F1:69.9\%,EM:42.7\%)に比べてそれぞれ $3 \%$ ほど精度が向上している。 ## 4.4 考察 multi-step fine-tuning を行うと, 1 段階のみのファインチューニングを行なった場合よりも精度が良くなることが確認できた. MCTACO は時間的特徴の理解を問うタスクであるが,1 段階目に使用するデータセットに関しては,時間的な常識に関するデータセットに拘らずに一般的な常識全般に関するデータセット,特に大規模なデータセットである場合に精度が大きく改善することが確認された. また,MLM に MCTACO を用いると,マスクする割合などによって違いはあるものの, pre-trained BERT モデルをそのまま使用する場合よりも精度が良くなることが確認できた. さらに, multi-step fine-tuning よりも精度が良くなることも確認でき,有用な手段であると考えられる。 ここで,MCTACO のみでファインチューニングしたモデルと,MLMに MCTACO を使用したモデル (表 6 のうち最も精度の良かった 1 行目の設定を使用)に関して,MCTACO の検証データに含まれる例に対し Attention の可視化を行い,観察した. 結果を図 1(a), 図 1(b) に示す. Attention の可視化には BertViz3)を使用した.BertVizでは,カーソルを合わせた任意のトークンからの Attentionを各レイヤー及びヘッドごとに確認することがで き,Attention が大きいほど色が濃く表示される.例えば文中の"happened"という動詞について比較してみると,MLMに MCTACO を用いることによって,"met"という動詞の過去形や"lonely"という形容詞への Attention が大きくなっていることが分かる. Attention の可視化について,詳しい結果を付録 A に記載する。 (a) MCTACO でファインチューニングしたモデル用いたモデルを使用したを使用した場合場合図 1 Attention 可視化の例 ## 5 おわりに 本研究では,自然言語で表現された事象の時間的常識を理解するタスクにおいて,多段階でのファインチューニングを行うことの効果の検証,及び,事前学習 MLM において使用するデータを変更することの効果の検証を行った. 実験の結果,使用するデータセットやマスクする割合による差異はあるものの,双方ともに精度の向上が確認された. さらに,MLM は精度がより良くなることが確認された。今後は,Attention の分析を進めながら MLM においてマスクするトークンの選び方を変更するなどの実験を行い,さらなる精度の向上を実現するために有益なドメイン適用手法ならびに言語モデル構築手法を開発する。 ## 謝辞 本研究は,科研費(18H05521)の支援を受けた。 ここに謝意を表す.  ## 参考文献 [1] Ben Zhou, Daniel Khashabi, Qiang Ning, and Dan Roth. "going on a vacation" takes longer than "going for a walk": A study of temporal commonsense understanding. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3363-3369, Hong Kong, China, November 2019. Association for Computational Linguistics. [2] Ben Zhou, Qiang Ning, Daniel Khashabi, and Dan Roth. Temporal common sense acquisition with minimal supervision. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7579-7589, Online, July 2020. Association for Computational Linguistics. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 83428360, Online, July 2020. Association for Computational Linguistics. [5] Jason Phang, Thibault Févry, and Samuel R Bowman. Sentence encoders on stilts: Supplementary training on intermediate labeled-data tasks. arXiv preprint arXiv:1811.01088, 2018. [6] Feng Pan, Rutu Mulkar-Mehta, and Jerry R Hobbs. Extending timeml with typical durations of events. In Proceedings of the Workshop on Annotating and Reasoning about Time and Events, pp. 38-45, 2006. [7] Qiang Ning, Hao Wu, and Dan Roth. A multi-axis annotation scheme for event temporal relations. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1318-1328, Melbourne, Australia, July 2018. Association for Computational Linguistics. [8] Lifu Huang, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. Cosmos QA: Machine reading comprehension with contextual commonsense reasoning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2391-2401, Hong Kong, China, November 2019. Association for Computational Linguistics. [9] Rowan Zellers, Yonatan Bisk, Roy Schwartz, and Yejin Choi. SWAG: A large-scale adversarial dataset for grounded commonsense inference. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Pro- cessing, pp.93-104, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. ## A 付録 本文中 4.4 にて行った Attention の可視化の補足として,MCTACO を用いてファインチューニング(以下,FT)したモデルと MLM に MCTACO を使用したモデルに加えて,MCTACO と SWAG を用いて multi-step fine-tuning (以下,MSFT)を行なったモデルの 3 つに関して,MCTACO の検証データに含まれる例に対して Attention の可視化を行い,どのように変化しているかを観察した. 図 2 と図 3 に可視化した結果を示す. (a) MCTACO を用いて FT したモデルを使用した場合 (a) MCTACO を用いて FT したモデルを使用した場合 (b) MCTACO+SWAG で MSFT を行なったモデルを使用した場合 図 2 Attention 可視化の例 1 (b) MCTACO+SWAG で MSFT を行なったモデルを使用した場合 図 3 Attention 可視化の例 2 (c) MLM に MCTACO を使用したモデルを使用した場合 (c) MLM に MCTACO を使用したモデルを使用した場合 まず,図 2 は,MCTACO を用いて FT したモデルでは正しく予測できなかったが,MCTACO + SWAG で MSFT を行なったモデルと MLM V MCTACO を使用したモデルでは正しく予測できた例に対して各モデルを使用した結果である。例えば文中の"happened"という動詞について確認してみると,(a) と比較して,(b) では,"before"という時間に関する接続詞や"met"という動詞の過去形への Attention が大きくなっていることが分かる。また,(c)では,本文中でも述べた通り"met"や"lonely"という形容詞への Attention が大きくなっていることが分かる. 次に,図 3 は,MCTACO を用いて FT したモデルでは正しく予測できていたが,MCTACO + SWAG で MSFT を行なったモデルと MLM KCTACO を使用したモデルでは正しく予測できなかった例に対して各モデルを使用した結果である。例えば文中の"paw"という動詞について確認してみると,(a) と比較して,(b) と (c) の双方とも時間に関する単語や動詞等へ Attention が大きくなっていることはあまり確認できない.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-17.pdf
# スペクトル混合カーネルとガウス過程に基づく 動画からの副詞の意味理解 谷口巴 お茶の水女子大学 g1620524@is.ocha.ac.jp } 持橋大地 統計数理研究所 daichi@ism.ac.jp } 長井隆行高野涉大阪大学 nagai@sys.es.osaka-u.ac.jp takano@sigmath.es.osaka-u.ac.jp 長野匡隼 中村友昭 電気通信大学 n1832072@edu.cc.uec.ac.jp tnakamura@uec.ac.jp 小林一郎 お茶の水女子大学 koba@is.ocha.ac.jp ## 1 はじめに 近年重要性が高まってきている家庭用ロボットには,日常生活において人と同じ感覚を共有した動作が期待される.動作に対する感覚は,自然言語では副詞を通じて表現されることが多い,ゆえに,特定の副詞を表現する複数の動作に共通する特徴を見つけることができれば,ロボットはその副詞の意味を本質的に理解したといえる. 副詞認識についての先行研究として, Pang ら [1] が表情認識や画像情報を用いてアプローチしているが,動作との関係性を捉えることは難しく,実際にロボットを動かすことを考えると実用的ではない. 本研究ではロボットに適用する前段階として,人の動作の特徴を通じて副詞の意味を理解することを試みる.具体的には,人の動作を GPLVM [2] で圧縮して得られた非線形な潜在空間での軌跡を,スペクトル混合カーネル [3] を用いたガウス過程で表現する. さらに各次元の軌跡を構成する複数の周波数成分を特定し, 副詞との対応関係を捉える,周波数空間でのマルチモーダルなトピックモデルを提案する.これにより,動作について副詞を用いて表現することや、副詞表現から動作を生成することが可能となる. ## 2 動作と副詞の結合トピックモデル ## 2.1 ガウス過程潜在変数モデル (GPLVM) 本研究では, 動作から得られる高次元の姿勢情報を低次元に圧縮してモデル化するため,ガウス過程に基づく教師なし学習であるガウス過程潜在変数モデル (GPLVM) [2]を用いる. GPLVM とは,ガウス過程に基づく非線形な確率的主成分分析であり, $N$個の $D$ 次元観測値をまとめた行列 $\boldsymbol{Y}$ について, 式 (1)を最大化するような低次元の入力 $X$ を計算する. $ p(\boldsymbol{X}, \boldsymbol{Y})=p(\boldsymbol{Y} \mid \boldsymbol{X}) p(\boldsymbol{X}) $ ここで, $\boldsymbol{X}$ は未知であるため $p(\boldsymbol{X})=\mathcal{N}\left(\boldsymbol{0}, \boldsymbol{I}_{K}\right)$ と仮定して,$p(\boldsymbol{Y} \mid \boldsymbol{X})$ を考える. $\boldsymbol{Y}$ はガウス過程に従い, $X$ がわかれば出力の各次元が独立であると仮定すると,データ全体 $\boldsymbol{Y}$ の確率は $\boldsymbol{y}^{(1)} \ldots \boldsymbol{y}^{(D)}$ の積であるため, $p(\boldsymbol{Y} \mid \boldsymbol{X})$ は以下の式で表される. ただし $\boldsymbol{K}_{\boldsymbol{X}}$ は共分散行列, $k\left(x, x^{\prime}\right)$ はガウス過程のカーネル関数であり, $K_{i, j}=k\left(x_{i}, x_{j}\right)$ で定義される. $ p(\boldsymbol{Y} \mid \boldsymbol{X})=(2 \pi)^{-\frac{N D}{2}}\left|\boldsymbol{K}_{\mathbf{X}}\right|^{-\frac{D}{2}} \exp \left(-\frac{1}{2} \operatorname{tr}\left(\mathbf{K}_{\boldsymbol{X}}^{-1} \boldsymbol{Y} \boldsymbol{Y}^{\mathbf{T}}\right)\right) $ 本研究では $\boldsymbol{X} \rightarrow \boldsymbol{Y}$ の GPLVM のカーネル関数として RBF カーネルを使用し,L-BFGS 法を用いて $X$ およびカーネルのハイパーパラメータを最適化する。図 3 に, 実際の動作から計算した $\boldsymbol{X}$ の例を示した. ## 2.2 スペクトル混合カーネル 上で得られた潜在空間 $X$ での動作の軌跡について,その特徴を捉えることを試みる. Wilson ら [3] はガウス過程で使用する基底を,既存の基底やその組み合わせに限定せず,フーリエ領域で混合ガウス分布を考えることでデータから自動的に学習できるスペクトル混合カーネル (Spectral Mixture Kernel, SM kernel) という手法を提案した.ここではガウス過程の基底として,值が $\tau=x-x^{\prime}$ だけに依存する定常基底関数 $k(\tau)$ を考える。ボホナーの定理より,任意の $k(\tau)$ は以下の形で表される. $ k(\tau)=\int_{\mathbb{R}^{D}} e^{2 \pi i s^{\mathrm{T}} \tau} \psi d s $ (a) Openpose による画面座標推定 (b) FCRN-depthによる深度推定 (c) 3 次元の骨格座標の推定 (d) 回転行列による方向正規化 図 1: 動画データの前処理による動作の骨格座標の抽出. $k(\tau)$ は周波数領域での確率密度 $\psi(s)$ と等価なので, $\psi(s)$ に関して混合ガウス分布を考える. ガウス分布の各要素は,もとの領域では以下の基底関数を考えていることと等価となる. $ k(\tau \mid \sigma, \mu)=\exp \left(-2 \pi^{2} \tau^{2} v^{2}\right) \cos (2 \pi \tau \mu) $ すなわち基底として, 次の $Q$ 個の基底関数の混合を考えていることになる. ただし,$\mu_{q}^{d}$ と $v_{q}^{d}$ は $q$ 個目の基底における入力 $\boldsymbol{X}$ における $d$ 次元目の平均と分散である. $ k(\tau)=\sum_{q=1}^{Q} w_{q} \cos \left(2 \pi \tau^{\mathrm{T}} \mu_{q}\right) \prod_{d=1}^{D} \exp \left(-2 \pi^{2} \tau_{d}^{2} v_{q}^{d}\right) $ パラメータの重み $\mathrm{w}$, 平均 $\mu$, 分散 $\sigma$ は通常のガウス過程のハイパーパラメータ最適化で学習できる. 本研究ではこの手法を用いて,各動画について GPLVM で圧縮した 3 次元の潜在変数 $X$ から,副詞と関係があると予想される $Q=4$ 個の周波数成分を抽出して観測値とする. 例を図 4 に示した. ${ }^{1)}$ ## 2.3 スペクトル混合潜在ディリクレ配分法 (Spectral Mixture LDA) 動作から抽出された周波数成分は, その動作に付与された副詞と関係があると考えられる。 そこで, 潜在ディリクレ配分法 (LDA) [4] を拡張し, 各動作 $d$ に $K$ 次元の潜在的な「トピック分布」 $\theta_{d}$ があると仮定する.このとき, 動作に付与された副詞 図 2: SMLDA のグラフィカルモデル. 1) $X$ での軌跡を直接フーリエ変換することもできるが,その場合は関数がどこを通るか (関数の位相) と関数の特徴を分離することができない. スペクトル混合カーネルを用いることにより,純粋に軌跡の特徴だけを抽出することができる。 $\left.\{w_{d n}\right.\}\left(n=1 \ldots N_{d}\right)$ および動作の周波数成分 $\left.\{x_{d m}\right.\}$ $\left(m=1 \ldots M_{d}\right)$ は, 次のモデルで生成されたと考える. 1. Draw $\theta_{d} \sim \operatorname{Dir}(\alpha)$. 2. For $n=1 \ldots N_{d}$, - Draw $z_{d n} \sim \theta_{d} ; \quad$ Draw $w_{d n} \sim \operatorname{Mult}\left(\phi_{z_{d n}}\right)$. 3. For $m=1 \ldots M_{d}$, - Draw $y_{d m} \sim \theta_{d}$; Draw $x_{d m} \sim \mathcal{N}\left(\mu_{y_{d m}}, \Sigma_{y_{d m}}\right)$. このグラフィカルモデルを図 2 に示した. このマルチモーダルなトピックモデルを, 本論文ではスペクトル混合 LDA (Spectral Mixture LDA; SMLDA) と呼ぶ. SMLDA では、周波数成分と副詞は動作毎に同じトピック分布 $\theta_{d}$ を共有している.ここで $\phi_{k}$, $\mathcal{N}\left(\mu_{k}, \Sigma_{k}\right)$ はそれぞれ, $k$ 番目のトピックに対応する副詞の多項分布および周波数のガウス分布であり,互いの情報を用いて, 各動画について 1 つ 1 つ副詞と周波数成分にトピックを割り当てていく. 副詞と周波数についてのサンプリングギブスサンプリングにより, 副詞と周波数のトピック分布を学習していく。副詞 $w_{d n}$ のトピック $z_{d n}$ は, 次式を用いてサンプリングする. ここで $V$ は語彙数を表す. $ \begin{aligned} & p\left(z_{d n}=k \mid \boldsymbol{W}, \boldsymbol{X}, \boldsymbol{Z}_{\backslash d n}, \boldsymbol{Y}, \alpha, \beta, \gamma\right) \\ & \quad \propto\left(N_{d k \backslash d n}+M_{d k}+\alpha\right) \frac{N_{k w}+\beta}{N_{k \backslash d n}+\beta \boldsymbol{V}} \end{aligned} $ ハイパーパラメータである $\alpha$ と $\gamma$ は不動点反復法により,以下の式を用いて更新する。ここで登場する $\Psi$ はディガンマ関数 $\Psi(x)=d / d x \log \Gamma(x)$ である。 $ \begin{aligned} \alpha^{\text {new }} & =\alpha \frac{\sum_{d=1}^{D} \sum_{k=1}^{K} \Psi\left(N_{d k}+M_{d k}+\alpha\right)-D K \Psi(\alpha)}{K \sum_{d=1}^{D} \Psi\left(N_{d}+M_{d}+\alpha K\right)-D K \Psi(\alpha K)} \\ \gamma^{\text {new }} & =\gamma \frac{\sum_{k=1}^{K} \sum_{v=1}^{V} \Psi\left(N_{k v}+\gamma\right)-K V \Psi(\gamma)}{V \sum_{k=1}^{K} \Psi\left(N_{k}+\gamma V\right)-K V \Psi(\gamma V)} \end{aligned} $ 周波数成分 $x_{d m}$ のトピック $y_{d m}$ に関しては, 副詞の単語分布をガウス分布の確率密度関数に置き換え,以下の式を用いてサンプリングする。 $ \begin{aligned} & p\left(y_{d m}=k \mid \boldsymbol{W}, \boldsymbol{X}, \boldsymbol{Z}, \boldsymbol{Y}_{\backslash d m}, \alpha, \beta, \gamma\right) \\ & \propto \frac{1}{\sqrt{2 \pi} \sigma_{k}} \exp \left(-\frac{\left(x_{d m}-\mu_{k}\right)^{2}}{2 \sigma_{k}^{2}}\right) \frac{N_{d k}+M_{d k \backslash d m}+\alpha}{N_{d}+M_{d}-1+\alpha K} \end{aligned} $ パラメータである $\mu$ と $\sigma$ は以下の事後分布からサンプリングする. ここで $\lambda=1 / \sigma^{2}$ である. $ p(\mu \mid \mathbf{Y})=\mathrm{N}\left(\mu \mid m,(\beta \lambda)^{-1}\right), p(\lambda \mid \mathbf{Y})=\operatorname{Gam}(\lambda \mid a, b) $ ただし $a_{0}, b_{0}, \beta_{0}, m_{0}$ を事前分布のパラメータとして $ \begin{aligned} & a=\frac{M}{2}+a_{0}, b=\frac{1}{2 \sum_{m=1}^{M} x_{m}^{2}+\beta_{0} m_{0}^{2}-\beta m^{2}}+b_{0} \\ & \beta=M+\beta_{0}, m=\frac{1}{\beta}\left(\sum_{m=1}^{M} x_{m}+\beta_{0} m_{0}\right) \end{aligned} $ ## 3 実験 ## 3.1 使用するデータ YouTube に掲載されている, 100 種類の異なる歩行動作を集めた動画2)を用いて実験を行った。クラウドソーシングシステム Lancers ${ }^{3)}$ を用いて,20 名のアノテーターに動画の各動作について思いつく限り自由に副詞をアノテーションしてもらうよう依頼した. 全動画で 3 個以上出現した副詞に限定し,満たない副詞はノイズとして除去した. また「ゆっくり」という副詞は多くの動画に付けられていたため,各動画につき 3 個以上付けられた場合のみ採用した. この結果, 1 つの動画につき平均 12.93 個の副詞がアノテーションされたデータが得られた. データの前処理上記の動画データから,以下のように 4 段階で 3 次元の骨格座標の推定を行った. 1. Openpose [5] を用いて動画データから 2 次元の骨格座標を推定 (図 1(a)) 2. FCRN-depth prediction [6] を用いて動画データの深度を推定 (図 1(b)) 3. 1,2 の推定結果と 3d-pose baseline [7] を用いて動画データから 3 次元の骨格座標を推定 (図 1(c)) 4. 歩いている人の体の向きを合わせるため, 回転行列を用いて正規化 (図 1(d)) 周波数成分の抽出前処理したデータから各関節間ごとに方向べクトルを算出し, 入力データとした. 以下の 2 つの手法を用いて, 前処理した動画データから周波数成分を抽出した。 1. GPLVM を用いて 48 次元の姿勢データを 3 次元の潜在変数に圧縮する (図 3) 2. SM kernel を用いて 3 次元の潜在変数から, 各次元について周波数成分を抽出する (図 4) 2) https://www. youtube.com/watch?v=HEoUhlesN9E 3) https://www. lancers.jp/ 図 3: GPLVM による動作の非線形次元圧縮.ここでは (a)-(c)の異なる歩行動作が, 低次元の潜在空間 $\boldsymbol{X}$ の軌跡として表現されている. 学習データのうち, 3 個の動作を GPLVM で圧縮した 3 次元の潜在空間にプロットしたものを図 3 に示す. 歩く動作は繰り返しの動作であるため, 潜在変数は図のように円を描くような動きになる. SM kernel によって各動画の 1 次元目について最適化された平均 $\boldsymbol{\mu}$ と分散 $\boldsymbol{\sigma}$ をパラメータとしてガウス分布を描画したものを図 4 に示した. ${ }^{4}$ ) 式 (5) より平均 $\mu$ の值が大きいほど周期が小さくなることから,值の変動が低速な動画データほど基底を表すスペクトルは左側に多く見られると推測できる.よって, (a) は遅い動きの成分が多く, (c) は速い動きの成分が多く, (b) はその中間的な動きということがわかる. SM kernel では構成されるカーネル関数に関して重み $\mathbf{w}$, 平均 $\mu$, 分散 $v$ が推定されるが, 関数の種類に着目するため, 平均 $\boldsymbol{\mu}$ のみを周波数成分として今後使用する. 本実験ではこの抽出された周波数成分と動画に付与された副詞の集合を入力データとした. 共にトピック数を 4, 十分収束するよう, MCMC の繰り返し数は 1000 と大きい值に設定した. 混合ガウス分布の部分に関して, 分散はデータの幅に合わせて 4 つのガウス分布が均等に配置されるよう, $\sigma=3.75$ と固定して平均のみ学習する。 (a) (b) (c) 図 4: 図 3 の各動作について, 1 次元目の軌跡を解析したスペクトル混合カーネルによる周波数表現. 4)推定された分散がきわめて小さいため, 図ではガウス分布がデルタ関数状に描画されている. 表 1: SMLDA で得られたトピック別副詞上位 7 語. 表 2: LDA だけで得られたトピック別副詞上位 7 語. ## 3.2 実験結果 学習されたトピックー単語分布から各副詞について NPMI [8] を計算した上位 7 語を表 1 に示す. 比較のため,周波数成分の情報を使わず LDA で解析した結果を表 2 に示した. 動作の情報を同時に用いることで, 副詞のトピックがより明確になっていることがわかる. また学習された平均 $\mu$ を用いてガウス分布を描画したものを図 5 に示す. 収束しているか確認するため, $\mathrm{MCMC}$ の各繰り返しごとに計算したパープレキシティをプロットしたものを図 6 に示す. かなり早い段階で収束していることがわかる. ## 3.3 モデルの評価 データを訓練用と評価用に 8 対 2 に分割した. 評価用のデータについて,モデルに周波数データを与えた際の副詞のパープレキシティを算出した. また, モデルの評価のため,次の 2 つのモデルと比較する。 1. 評価用と同じ $\theta$ を用いて, 副詞を一様分布を使ってランダムにサンプリングしたもの 2. $\theta$ そのものもランダムに生成し,副詞を一様分布を使ってランダムにサンプリングしたもの 図 5: 学習した $\mu$ を用いて描画したガウス分布. 図 6: SMLDA の MCMC とパープレキシティ. この結果,SMLDA のパープレキシティは 41.55, 上記のランダム 1 とランダム 2 はそれぞれ 90.75 および 92.84 であり,モデルが正しく副詞を予測しているこ 図 7: 評価用の動画の例. とがわかった. また評価用の動画 (図 7) に関して,周波数データを与えたとき,SMLDA が推定した $\theta$ を図 8 に,確率の高い副詞を表 3 に示す。 図 8: 動作から推定された $\theta$. 表 3: 動画から予測される確 ## 3.4 考察率の高い副詞上位 7 語. 表 1 では,副詞を動作の情報も用いて意味的にクラスタリングすることに成功している. 図 5 では,狙い通りデータの幅を均等に分けるようにガウス分布が配置されている形となっている。このことから,SMLDA は副詞情報,周波数成分情報ともに互いの情報を用いて,クラスタリングが成功していることが確認できる。また SMLDA はランダムに副詞を生成するモデルよりパープレキシティが低く,動作を表す周波数成分から副詞を生成するモデルとして有効であることが示された.最後に表 3 より,動画に対して妥当な副詞がサンプリングされていることが確認できた。 ## 4 まとめと今後の課題 歩行動作をする人間の骨格座標を GPLVM を用いて 3 次元の潜在変数に圧縮し, SM kernel を用いて周波数成分を抽出した. 次に SMLDA を用いて, 動画にアノテーションされた副詞データと周波数データを, お互いの情報を使いながら 4 つのトピックにクラスタリングした. 最後にパープレキシティを用いて評価し, モデルの有効性を示した. 現在は 3 次元に圧縮した潜在変数を 1 次元ずつスペクトル混合カー ネルを用いて解析しているが, 今後はこれを直接 3 次元で同時に行うことを検討している。 謝辞本研究は, 科学研究費補助金 - 基盤 (B) (18H03295) の支援を受けて行った. ## 参考文献 [1] Bo Pang, Kaiwen Zha, and Cewu Lu. Human Action Adverb Recognition: ADHA Dataset and A Three-Stream Hybrid Model. CoRR, Vol. abs/1802.01144, pp. 2438-2447, 2018. [2] Michalis K. Titsias and Neil D. Lawrence. Bayesian Gaussian Process Latent Variable Model. In AISTATS 2010, pp. 844-851. [3] Andrew Gordon Wilson and Ryan Prescott Adams. Gaussian Process Kernels for Pattern Discovery and Extrapolation. In ICML 2013, pp. 1067-1075. [4] David M. Blei, Andrew Y. Ng, Michael I. Jordan, and John Lafferty. Latent Dirichlet Allocation. Journal of Machine Learning Research, Vol. 3, pp. 994-1022, 2003. [5] Zhe Cao, Gines Hidalgo, Tomas Simon, Shih-En Wei, and Yaser Sheikh. OpenPose: Realtime Multi-Person 2D Pose Estimation Using Part Affinity Fields. IEEE Trans. Pattern Anal. Mach. Intell., Vol. 43, No. 1, pp. 172-186, 2021. [6] Iro Laina, Christian Rupprecht, Vasileios Belagiannis, Federico Tombari, and Nassir Navab. Deeper Depth Prediction with Fully Convolutional Residual Networks. In $3 D V$, pp. 239-248, 2016. [7] Julieta Martinez, Rayat Hossain, Javier Romero, and James J Little. A Simple yet Effective Baseline for 3D Human Pose Estimation. In ICCV 2017, pp. 2640-2649, 2017. [8] Gerlof Bouma. Normalized (Pointwise) Mutual Information in Collocation Extraction. Proceedings of GSCL, pp. 31-40, 2009.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-18.pdf
# 説明性の高いニューラルモデルの予測確信度に関する分析 $\dagger$ 東北大学 理化学研究所 $\left.\{{ }^{1}}.$ shun.sato, ${ }^{5}$ inui $\}$ @ecei.tohoku.ac.jp $\left.\{{ }^{2}}.$ hiroki.ouchi, ${ }^{3}$ shota.sasaki.yv, ${ }^{4}$ kazuaki.hanawa $\} @$ riken.jp ## 1 はじめに ニューラルネットワークを用いたモデルによって,自然言語処理の各タスクにおける予測性能は飛躍的に向上した.一方で,「モデルがなぜそのような予測をしたのか」を理解することは,人間にとって極めて困難であることが指摘されている [1]. そのような状況で, $k$ 近傍法のような,学習事例との類似度にもとづいて予測を行うモデルが注目を集めている.この種のモデルでは予測への貢献度の高い学習事例を提示することが容易であり,機械学習の専門知識を持たないユーザにとってもモデルの挙動を直感的に理解可能な場合が少なくない。 これに加え,「モデルがどの程度確信を持ってそのような予測をしたのか」がわかるなら,人間の意思決定や人間と機械の協働がさらに促進されると考えられる。たとえばモデルが確信度の低い予測をした場合,人間による確認を入れるといった対策が打てる.このような背景から, 多様な確信度計算手法が提案されており,特に近年では,学習事例との類似度にもとづいてモデルの予測確信度を算出する手法が注目を集めている [5]. 我々はニューラルネットワークモデルを使う際にモデルの予測の根拠と予測確信度が両方が同時にわかることが重要であると考えている。本研究ではこの 2 つの条件を満たすモデルの挙動に対する理解を深めるため,モデルが $k$ 近傍法を用いて予測を行う場合に,訓練方法やデータの類似尺度の違いが確信度計算や近傍事例に与える影響について実験,分析を行った. 本研究の貢献は以下の 2 点である. ・ニューラルネット上で $k$ 近傍法を用いて予測を行う場合に,訓練手法 (Cross Entropy Loss による訓練,Triplet Loss による訓練) やデータの類似尺度 (L2 距離, コサイン距離, 内積)を変えて性能評価を行い,各条件における確信度の性能 の違いを明らかにした。 - 多くの評価事例の近傍に重複して現れる訓練データ(ハブ)の出現度合いと確信度計算手法 Trust Score の関係を分析し,類似尺度が L2 距離やコサイン距離の時には,ハブが多く発生している予測に対して低い確信度が割り当てられることを明らかにした。 ## 2 説明性の高いモデルの実現 この節では 1 節で述べたように,予測の根拠と予測確信度の両方がわかるような説明性の高いニュー ラルネットワークモデルの実現方法について述べる. ## 2.1 モデルの予測確信度 ニューラルネットワークの予測確信度に関する研究は数多くなされており,その研究の方向性のとしては大きく2つの方向性がある.1つ目はモデルの予測確率を直接予測確信度として使えるように補正を行う研究である。具体的な手法には, temperature scaling[4] が挙げられる. temperature scaling は過剩に高い值がつく傾向にあるニューラルネットワークモデルの予測確率に対して温度パラメータという新しいパラメータを導入し,開発セットを用いて温度パラメータの値を変えながら予測確率が適切な確信度となるように補正を行う。 2 つ目は予測時に追加の計算を行うことで予測確率とは異なる予測確信度を計算する研究である。代表的な手法としては Trust Score[5] が挙げられる. Trust Score は評価データと訓練データの間の距離を用いて確信度を計算する手法であり,$k$ 近傍法による予測とも自然に組み合わせることが可能である. 本研究では $k$ 近傍法による予測と Trust Score による確信度計算を組み合わせることで,モデルの予測に対して「なぜその予測が行われたのか」「その予 測がどれくらい信用できるのか」の 2 点が明示的にわかるニューラルネットワークモデルを実現する. ## 2.1.1 Trust Score による予測確信度の算出 予測確信度として用いる Trust Score の算出方法について述べる. クラスラベルの集合を $C=\left.\{l_{1}, l_{2}, \ldots, l_{M}\right.\}$ とし, 入力 $x_{i}$ とそのラベル $y_{i} \in$ $C$ からなる $n$ 個の訓練データ集合を $\mathbf{X}_{\text {train }}=$ $\left.\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{n}, y_{n}\right)\right.\}$ とする. また, 入力 $x$ の文ベクトル $\mathbf{h}_{x} \in \mathbb{R}^{d \times 1}$ を計算するエンコーダを $f(\cdot)$ とする。訓練済みのエンコーダに $\mathbf{X}_{\text {train }}$ を大力して得られた文べクトルの集合を $\mathscr{H}:=\left.\{\mathbf{h}_{x_{1}}, \mathbf{h}_{x_{2}}, \ldots, \mathbf{h}_{x_{n}}\right.\}$ とし,評価データ $x_{\text {test }}$ に対する文ベクトルを $\mathbf{h}_{x_{\text {test }}}$ とする.ここで, $\mathbf{h}_{x_{i}}=f\left(x_{i}\right), \mathbf{h}_{x_{\text {test }}}=f\left(x_{\text {test }}\right)$ である. また, 評価データ $x_{\text {test }}$ に対するモデルの予測が $\hat{y}_{\text {test }}=l$ である時, 集合 $\mathscr{H}$ の中で正解ラベルが $l$ である集合を $\mathscr{H}_{l}=\left.\{\mathbf{h}_{j} \in \mathscr{H} \mid 1 \leq j \leq n \wedge y_{j}=l\right.\}$ とする.この時に評価データ $x_{\text {test }}$ に対する Trust Score $S\left(x_{\text {test }}, \mathscr{H}\right)$ は以下の式で算出される. $ S\left(x_{\text {test }}, \mathscr{H}\right)=\frac{d_{\mathrm{np}}\left(x_{\text {test }}, \mathscr{H}\right)}{d_{\mathrm{p}}\left(x_{\text {test }}, \mathscr{H}\right)+d_{\mathrm{np}}\left(x_{\text {test }}, \mathscr{H}\right)} $ ただし $ \begin{aligned} & d_{\mathrm{p}}\left(x_{\text {test }}, \mathscr{H}\right)=\min _{\mathbf{h} \in \mathscr{H}_{l}} d\left(\mathbf{h}_{x_{\text {test }}}, \mathbf{h}\right) \\ & d_{\mathrm{np}}\left(x_{\text {test }}, \mathscr{H}\right)=\min _{\mathbf{h} \in\left(\mathscr{H} \backslash \mathscr{H}_{l}\right)} d\left(\mathbf{h}_{x_{\text {test }}}, \mathbf{h}\right) \end{aligned} $ ここで $d\left(\mathbf{h}_{x_{\text {test }}}, \mathbf{h}\right)$ は $\mathbf{h}_{x_{\text {test }}}, \mathbf{h}$ の間の距離を表す. Trust Score は予測したクラスの代表点までの距離が近いほど,また予測していないクラスの代表点までの距離が遠いほど大きな確信度が付けられる. またこの計算式 (1) は, 確信度が 0 から 1 までの範囲に収まるように Trust Score を提案している論文 [5] 内における式に修正を加えたものである. ## 3 分析を行う項目 本研究では 2 節で述べた説明性の高いニューラルネットワークに関して分析を行う,具体的には $k$ 近傍法による予測と Trust Score の計算に大きな影響を及ぼす (1) データ間の類似尺度と (2) データ同士の位置関係の 2 つの項目について変化させた時の Trust Score の挙動について分析を行う. (1)のデータ間の類似尺度については, Trust Score では L2 距離が用いられることが多いが,その他の類似尺度を用いた際の Trust Score 挙動についてはまだ明らかになっていない。具体的には L2 距離以外 にもコサイン距離や内積を類似尺度として用いることで,Trust Score の挙動が変化すると考えられる. (2) のデータ同士の位置関係はモデルの訓練方法に大きく依存する. 通常の $M$ クラスの分類問題においては損失関数として次の Cross Entropy Loss が用いられることが多い. $ L_{\text {CrossEntropy }}(x)=-\mathbf{t} \log \left(\operatorname{Softmax}\left(\mathbf{W} \mathbf{h}_{x}+\mathbf{b}\right)\right) $ ただし, $\mathbf{h}_{x}=f(x)$ とし, $\mathbf{W} \in \mathbb{R}^{M \times d}$ は重み行列, $\mathbf{b} \in \mathbb{R}^{M \times 1}$ はバイアス項, $\mathbf{t} \in \mathbb{R}^{1 \times M}$ は $x$ の正解ラべルの箇所に 1 がたつ 1-hot ベクトルである. またデータ間のラベルの違いを明示的に距離関係として学習させる Triplet Loss[10] を用いることで, Cross Entropy Lossを用いた際のデータ間の位置関係とは大きく異なった位置関係になると考えられる。 Triplet Loss はある訓練データ $x$ に対して,同じクラスの訓練データ $x_{\mathrm{p}}$ と異なるクラスの訓練データ $x_{\mathrm{n}}$, マージン $m$ を用いて算出される. $ L_{\text {Triplet }}(x)=\operatorname{ReLU}\left(d\left(\mathbf{h}_{x}, \mathbf{h}_{x_{\mathrm{p}}}\right)-d\left(\mathbf{h}_{x}, \mathbf{h}_{x_{\mathrm{n}}}\right)+m\right) $ ただし $\mathbf{h}_{x}=f(x), \mathbf{h}_{x_{\mathrm{p}}}=f\left(x_{\mathrm{p}}\right), \mathbf{h}_{x_{\mathrm{n}}}=f\left(x_{\mathrm{n}}\right)$ とし, $d(\cdot)$ は L2 距離,コサイン距離,内積のいずれかを表す.以上を踏まえて本研究では,データ間の類似尺度 (L2 距離/コサイン距離/内積) とモデルの訓練方法 (Cross Entropy Loss/Triplet Loss) をそれぞれ変化させた場合の Trust Score の挙動の分析を行う. ## 4 実験 ## 4.1 タスク設定 今回 Trust Score の分析に用いるタスク設定としては文書分類タスクを用いる。予測確信度に関する先行研究 $[2,3,5]$ では確信度の性能評価を画像データやテキストデータに対する分類タスクを用いて論じており,本研究でもそれに従う。 データセットには 20 Newsgroups データセット [7]を用いる.このデータセットは 20 種類の異なるニュース記事を収集したデータセットであり,20 クラスの文書分類問題として用いる. データ数は約 20,000であり,今回そのうち 10182 個を訓練デー タ,1132 個を開発データ,7532 個を評価データとして分割した. ## 4.2 評価指標 予測確信度の評価指標としては E-AURC (ExcessArea Under the Risk-coverage Curve)[3] を用いる。ま 図 1 E-AURC の説明図. AURC が risk-coverage 曲線に囲まれる面積 (青色+灰色) であり, そこから現在のモデルの予測性能で達成しうる最も小さい risk-coverage 曲線の面積 (灰色)を除いた部分の面積 (青色) が E-AURC の値となる. なお図は訓練方法を Triplet Loss, データの類似尺度をコサイン距離とした場合のものである. ず AURC (Area Under the Risk-coverage Curve) について述べる. AURC は図 1 のように risk-coverage 曲線に囲まれる面積として求められる。 risk-coverage 曲線は全ての評価データをそのデータに対するモデルの予測確信度について降順に 1つずつ見ていき,見ているデータまでの予測の累計の誤り率をプロットして描かれる曲線である。この AURC が小さいほど,ある確信度を閾値とした時に正しい予測と誤った予測が明確に分離されており,優れた確信度計算手法であることを意味する。 しかし,この AURC は,モデルの予測性能に依存しており,異なるモデル間での性能比較が困難である. E-AURC は AURC (図 1 の灰色部分+青色の部分) からを各モデルが達成しうる最小の risk-coverage 曲線 (図1 の灰色部分) を取り除いて正規化を行うことで,異なるモデル同士の確信度としての性能比較を行えるようにした指標である. E-AURC の詳細な計算方法については付録 A. 1 を参照されたい. 今回の実験では,訓練方法や予測方法が異なるモデル間での,確信度の性能を比較するため,E-AURC を性能評価の指標として採用した. また結果の視認性の向上のため E-AURC の值は全て 1000 倍して表示した. ## 4.3 モデル設定 今回は文書分類モデルを入力として訓練済みの単語ベクトル, 系列のモデリングに畳み込みニュー ラルネットワーク (CNN)[11]を用いて実装した. 訓練済みの単語ベクトルには 200 次元の Glove[8]を用い,訓練中に単語ベクトルの値の更新も行った. CNN にはカーネルサイズを 3 , フィルタのサイズを表 1 訓練方法,データ間の類似尺度を変えた時の予測性 3,4,5 とした Max Pooling を行った. 損失の最適化には Adam [6] を用い,学習率の初期値は $\rho=0.001$ とした. 今回実験では損失関数には Cross Entropy Loss と Triplet Loss のいずれかを用いた. Triplet Loss のマー ジン $m$ としては距離尺度が L2 距離, コサイン距離,内積の場合にそれぞれ $m=1.0, m=0.005, m=0.01$ とした。このマージンの値は開発セット用いて最も確信度の性能が高くなった場合の値を用いた。 次にモデルの予測方法と確信度計算について述べる. 各モデルの予測は各評価データについて近傍の訓練データに基づいて $k$ 近傍法を用いて行う. 今回予測に用いる近傍の訓練データの数は $k=10$ とした. Trust Score の計算には先行研究 [5] に従い, モデルの最終層のデータの文べクトルを用いて計算を行った. また全ての実験の計測はシード值の異なる 3つのモデルを用いて行い,その平均値を記載した. ## 4.4 実験結果 表 1 に訓練方法, データ間の類似尺度を変えた時のモデルの予測性能と Trust Score の確信度の性能を示す. 表 1 から,類似尺度が内積の場合には L2 距離やコサイン距離の時に比べて,予測性能,確信度の性能ともに最も性能が低くなった. また訓練方法ごとに比較すると, 類似尺度がコサイン距離の場合が最も確信度の性能が高くなった. 全条件で比較すると Triplet loss で訓練を行い,類似尺度をコサイン距離とした場合に最も E-AURC の値が小さく, 確信度として優れた性能を発揮することがわかった。 Triplet loss で訓練を行い,類似尺度をコサイン距離とした場合の E-AURC は図 1 の青い部分の面積であり,その他のいくつかの条件の E-AURC の様子についても付録 A. 3 に記載した。 ## 5 分析 この節ではなぜ Triplet Lossを用いて訓練を行い, データの類似尺度をコサイン距離とした場合に他の条件に比べて Trust Score が確信度として優れた性能を発揮したのかを考察する.我々は原因を探るた 図 2 Triplet/ $\cos$ モデルにおける予測クラスごとの平均 Trust Score とハブの出現度合い $S_{N_{1}}$ の関係 め, Trust Score と $k$ 近傍法において発生するハブという現象の間の関係について分析を行った。 ## 5.1 近傍検索におけるハブの出現 $k$ 近傍法を用いた予測においては,異なる評価データの近傍事例として同じ訓練データが重複して検索されてしまう現象が観測されており,そうした訓練データはハブと呼ばれている [9]. 一般に予測の根拠として,同じ事例が何度も出てきてしまうことは,有意義な予測の根拠とは言えない. 今回の我々が行った実験においても多くの条件でもこのハブが観測された。 ## 5.1.1 ハブの出現度合い 先行研究 [9] に従い,ハブの出現度合いの計算には各評価事例の予測に用いられる $k$ 個の訓練デー タの中に各訓練データが何回含まれるかという分布 $N_{k}$ の歪度 $S_{N_{k}}$ を用いて行う. この $S_{N_{k}}$ の值が大きいほど,特定の訓練データが重複して近傍事例として選択されており,ハブが発生していることを表す. 計算方法の詳細については付録 A. 2 を参照されたい. ## 5.2 Trust Score とハブの関係 図 2 に Triplet Loss を用いて訓練を行い,類似尺度をコサイン距離とした時の予測クラスごとの平均 Trust Score と各予測の最近傍点におけるハブの発生度合い $S_{N_{1}}$ の関係を示す. 図 2 から八ブが多く発生しているクラスでは,Trust Score が平均的に小さく,逆にハブのあまり発生してないクラスでは Trust Score が平均的に大きくなっていることがわかった. 他の 5 つの条件とも比較するため,予測クラスごとの最近傍点におけるハブの発生度合い $S_{N_{1}}$ と Trust Score との相関, 及び最近傍点におけるハブの発生度合いと予測の適合率の相関をピアソンの相関表 2 各条件における予測クラスごとの $S_{N_{1}}$ と Trust Score(TS), $S_{N_{1}}$ と適合率の相関係数 係数を用いて計測した結果が表 2 である. 表 2 からは類似尺度が L2 距離とコサイン距離の場合に,各予測クラスごとの $S_{N_{1}}$ と Trust Score, $S_{N_{1}}$ と適合率の間に負の相関関係が読み取ることができる。この負の相関関係は全条件の中で Triplet Loss で訓練し,距離尺度をコサイン距離とした場合に最も強くなっていた。すなわち,この条件下では,ハブの発生している予測クラスでの予測は誤りやすくまた,その予測に低い確信度がつきやすい傾向が最も強くでたため,確信度として最も優れた性能を発揮したと考えられる。予測クラスごとの詳細な実験值は付録 A. 3 を参照されたい. ## 6 終わりに 本論文ではニューラルネットワークモデルの予測についてモデルの予測の根拠と予測確信度が両方同時にわかることが重要だと考え,予測を $\mathrm{k}$ 近傍法で行う場合の Trust Score の挙動について訓練方法やデータの類似尺度を変えて分析を行った.その結果,損失関数を Triplet Loss, データの類似尺度をコサイン距離とした場合に確信度として最も優れた性能を発揮することを明らかにした。 また分析の過程で, $k$ 近傍法で検索される近傍事例において,同じ訓練データが重複して検索されるハブという現象に注目し,ハブが発生している場合に Trust Score による予測確信度が低くつく傾向があることを明らかにした. なぜこのような現象が起こるのかの解明は今後の研究課題としたい. ## 謝辞 本研究は JSPS 科研費 JP19H04425 の助成を受けたものです. ## 参考文献 [1]Marina Danilevsky et al. "A Survey of the State of Explainable AI for Natural Language Processing". In: Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing. 2020. [2]Yarin Gal and Zoubin Ghahramani. "Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning". In: Proceedings of The 33rd International Conference on Machine Learning. 2016. [3]Yonatan Geifman, Guy Uziel, and Ran El-Yaniv. "BiasReduced Uncertainty Estimation for Deep Neural Classifiers". In: Proceedings of the 7th International Conference on Learning Representations. 2019. [4]Chuan Guo et al. "On Calibration of Modern Neural Networks". In: Proceedings of the 34th International Conference on Machine Learning. 2017. [5]Heinrich Jiang et al. "To Trust Or Not To Trust A Classifier”. In: Advances in Neural Information Processing Systems. 2018. [6]Diederik P. Kingma and Jimmy Ba. "Adam: A Method for Stochastic Optimization". In: Proceedings of the 3rd International Conference on Learning Representations. 2015. [7]Ken Lang. "NewsWeeder: Learning to Filter Netnews". In: Proceedings of the 12th International Machine Learning Conference. 1995. [8]Jeffrey Pennington, Richard Socher, and Christopher Manning. "GloVe: Global Vectors for Word Representation". In: Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. 2014. [9]Miloš Radovanovi; Alexandros Nanopoulos, and Mirjana Ivanovi; "Hubs in Space: Popular Nearest Neighbors in HighDimensional Data". In: Journal of Machine Learning Research (2010). [10]Jiang Wang et al. "Learning Fine-grained Image Similarity with Deep Ranking". In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014. [11]Kim Yoon. "Convolutional Neural Networks for Sentence Classification". In: Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. 2014. ## A 付録 ## A. 1 E-AURC の計算方法 risk-coverage 曲線の面積である AURC は,各々のデータにつけられた確信度について降順に並べ替えた $m$ 個の評価データ集合 $\left.\{x_{1}, x_{2}, \ldots, x_{m}\right.\}$ について以下の式 (6) によって計算される. $ \mathrm{AURC}=\sum_{i=1}^{m} \frac{\sum_{j=1}^{i} g\left(x_{j}\right)}{i \times m} $ ただし,関数 $g$ は評価データ $x$ に対する分類器の予測が当たっている場合には 0 , 外れている場合には 1 を返す 2 値関数である E-AURC を提案している論文 [3] では,AURC の正規化を行うための最小の risk-coverage 曲線の面積 $\mathrm{AURC}_{\text {min }}$ (図 1 の灰色部分) を求めるために以下の式 (7)のような近似計算を行なっている. $ \mathrm{AURC}_{\text {min }} \approx \int_{0}^{\hat{r}} \frac{x}{1-\hat{r}+x} d x=\hat{r}+(1-\hat{r}) \log (1-\hat{r}) $ ここで $\hat{r}$ は評価データ全体に対する予測の精度 $\alpha$ について $\hat{r}=1-\alpha$ として定まる値である. 最終的に式 (6) で求まる AURC から, 式 (7) で求めた最小の risk-coverage 曲線の面積を引くことで E-AURC の値を求めることができる. ## A. 2 ハブの出現度合いの計算 先行研究 [9] に従い,ハブの出現度合いの計算には式 (8)のように,各評価事例の予測に用いられる $k$ 個の事例の中に各訓練データが何回含まれるかという分布 $N_{k}$ の歪度 $S_{N_{k}}$ を用いて行う. $ S_{N_{k}}=\frac{\sum_{i=1}^{l}\left(N_{k}(i)-E\left[N_{k}\right]\right)^{3} / l}{\operatorname{Var}\left[N_{k}\right]^{3 / 2}} $ ここで $l$ は訓練データの数であり,E,Var はそれぞれ期待值と分散を表す. 式 (8) の値が大きいほど評価事例の $k$ 近傍に頻繁に含まれる訓練データが存在し,ハブが出現していることを表す。 ## A. 3 実験値の詳細 表 3 に Triplet loss を用いて訓練し,距離尺度をコサイン距離とした時の予測クラスごとの最近傍におけるハブの発生度合い $S_{N_{1}}$ と, 予測の適合率, Trust Score の平均値を記載した。 また Cross Entropy Loss で訓練を行い類似尺度をコサイン距離とした場合の E-AURC の結果を図 3表 $3 \mathrm{Triplet} / \cos$ モデルにおける予測クラスごとの $S_{N_{1}}$, 予測の適合率,平均 Trust Score に,Triplet Loss で訓練を行いコサイン距離以外の類似尺度を用いた場合の E-AURC の結果を図 4,5 記載した。 図 3 Cross Entropy/cos モデルにおける E-AURC の様子 図 4 Triplet/12 モデルにおける E-AURC の様子 図 $5 \mathrm{Triplet} / \mathrm{dot}$ モデルにおける E-AURC の様子
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-19.pdf
# 小規模コーパスを利用した領域特化型 ELECTRA モデルの構築 伊藤陽樹 茨城大学 工学部情報工学科 17t4014y@vc.ibaraki.ac.jp } 新納浩幸 茨城大学大学院 理工学研究科情報科学領域 hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 1 はじめに 自然言語処理のタスクを機械学習のアプローチで解決する場合,訓練データの領域(ソース領域)とテストデータの領域 (ターゲット領域) が異なるという domain shift の問題が深刻である. BERT[1]のような事前学習済みモデルは下流のタスクによりモデルを fine-tuning するため, domain shift の問題に対処できる.さらに近年はターゲット領域のコーパスを用いて BERT の追加学習を行い, 追加学習できたモデルを fine-tuning することで更なる精度向上がなされている. ただし BERT の追加学習には多大な計算機資源が必要であり,簡単に行うことはできない. また利用するターゲット領域のコーパスも大規模なものが想定されるが,そのようなコーパスが現実には入手できないことも多い. 本研究では上記の問題への対処として ELECTRA (Efficiently Learning an Encoder that Classifies Token Replacements Accurately)[2] の利用を試みる. ELECTRA は BERT で用いられる Masked Language Modeling (MLM) を Replaced Token Detection (RTD) という手法に置き換えた事前学習モデルである。 MLM は入力文に対していくつかの単語を [MASK] に置き換え,その [MASK] を推定することでモデルを学習させている。しかし BERT では [MASK] の置き換えが全体の $15 \%$ であり効率が悪い. その点を改良したのが RTD である. RTD では Generative Adversarial Network(GAN) の考えに基づいて生成モデルと識別モデルの 2 つのモデルを用意し, 生成モデルによって生成された各トークンが,識別モデルによって入力文に対して置換されているかどうかの 2 値判定で事前学習を行っている. RTDでは全てのトークンを学習に扱うことができるためより計算効率性が良く,RTDを利用した ELECTRA モデルは同一サイズの BERT モデルと比較しても優れた性能を発揮することが知られている。実験ではまず一般的な小規模の ELECTRA モデルを構築した. 次にターゲット領域の小規模コーパスを利用し,その ELECTRA モデルの追加学習を行うことで領域特化型の ELECTRA モデルを構築した. 構築した領域特化型の ELECTRA モデルは, BERT-base よりも小さなモデルではあるが,ター ゲット領域の文書分類タスクに対して,BERT-base よりも性能がよいことを確認できた。 ## 2 関連研究 ## 2.1 系列ラベリングの教師なし領域適応 ELMo や BERT のような文脈が考慮された分散表現を生成するモデルは,ラベル付けされていない大規模コーパスを用いて事前学習を行うことで,幅広い自然言語処理タスクにわたって良い性能を発揮することが知られている。 しかし,これらのモデルは学習に Wikipedia やニューステキストといったコー パスを使用しているため,ターゲットのテキストの領域や書かれ方が事前学習コーパスと大きく異なる場合,このアプローチが有効であるかどうかは不明である。そこで,論文 [3] では,ターゲット領域のテキストを使用して分散表現を fine-tuning することで性能向上を図っている. 先行研究では,初期近代英語と Twitter の 2 つのテキストをターゲット領域としてテストしている. どちらも既存の事前学習コーパスとは大きく異なるが,提案された手法により通常の BERT モデルよりも実質的な改善が得られたことを示している. ## 2.2 Domain Tuning と Task Tuning 一般に,ターゲット領域が事前学習コーパスと異なる場合,文脈に応じた単語分散表現はタグ付けタスクには効果がない可能性があると言われている. これは,ラベル付けされたデータもターゲットのテキストと大きく異なる可能性があるため,教師なし の領域適応では特に深刻である. この問題に対処するために,論文 [3] 中では教師なしの領域適応のための AdaptaBERT モデルの手法を提案している. 具体的には,以下の 2 つのアプローチを適用している. Domain Tuning ターゲット領域のテキストを使って教師なしで BERT の言語モデルをチューニングする方法. 例えば, Wikipediaで学習した BERT を Twitter のテキストを使って再学習することがこれに当たる. Task Tuning 教師データを使って BERTをチュー ニングする方法. 例えば,固有表現認識であれば CoNLL 2003 を使って BERT を含むモデル全体を学習させることがこれに当たる. 実験設定は,Domain Tuning と Task Tuning の組み合わせにより以下の 4 つを定めている. - Frozen BERT - Task-tuned BERT - AdaptaBERT - Fine-tuned BERT Frozen BERT は, BERT を学習させず特徴抽出器として用いる方法である. Task-tuned Bert は,ソー ス領域の教師付きデータを使って BERT を学習させる方法である. AdaptaBERT は,ターゲット領域の教師なしデータを使って BERTをチューニングした後,ソース領域の教師付きデータを使ってモデルを学習させる方法である. 最後の Fine-tuned BERT というのは,ターゲット領域のデータを使って BERT を含むモデル全体を学習させる方法を指している. 実験では Penn Parsed Corpus of Early Modern English(PPCEME) における品詞タグ付けと Workshop on Noisy User Text(WNUT) 2016 における固有表現認識について評価を行っている. 品詞タグ付けでは, ソース領域のコーパスとして Penn Treebank (PTB) corpus of 20th century English,ターゲット領域のコー パスとして PPCEMEを使っており,PTB は現代英語, PPCEME は 15 世紀から 17 世紀の英語をター ゲットにしたコーパスとなっている. 固有表現認識ではソース領域のコーパスとして Conference on Natural Language Learning(CoNLL) 2003,ターゲット領域のコーパスとして WNUT 2016 を使っており, CoNLL 2003 はニュースが対象で,WNUT は Twitter が対象となっている.品詞タグ付けと固有表現認識の 2 つの実験結果から,Domain Tuningを使用してターゲット領域のコーパスで BERT を学習させることで性能が向上することが分かっている. ターゲット領域のラベル付きデータが大量に確保できない場合でも,ターゲッ卜領域の教師なしデータを使って事前学習モデルをチューニングするだけで性能が向上するというは十分に実用的であるといえる。 ## 3 ELECTRA モデルの利用 論文 [4] によると,事前学習モデルの学習時に用いられたコーパスによってバイアスを受けることが示されている. 実際のシステムが対象にする領域に特化した事前学習モデルを構築すれば,それを利用することでその領域における精度を向上させることができる. しかし, 現在の事前学習手法の多くは,効果を発揮するために莫大な計算資源を必要とする. 計算量を増やして事前学習を行えば,下流タスクの精度が向上する場合がほとんどであるため, 事前学習を行う際は下流タスクの精度だけでなく, 計算効率性も考慮する必要がある。 そこで本論文ではより計算効率性の良い事前学習手法であるRTDを採用した ELECTRAを利用する。 論文 [2] では,様々なサイズの ELECTRA モデルを学習し,計算量に対する下流タスクの性能を評価している。具体的には,自然言語理解のベンチマークの GLUE と質問応答技術のベンチマークの SQuAD に対する実験を行っている. それによると ELECTRA モデルは,他の最先端の自然言語処理モデルと比較しても,同じ計算量であれば,従来の手法よりも改善されることが示されている. 例えば, RoBERTa および XLNet の 25\%未満の計算量で,同等の性能を発揮することが分かっている. さらに効率化を進めると, 単一の GPU で, 4 日間で学習可能な ELECTRA-Small では,GPT よりも優れたパフォーマンスを発揮し,計算量は 30 分の 1 で済むことが分かっている. ## 4 実験 ## 4.1 モデルの構築 日本語で事前学習を行った ELECTRA モデルを構築するために,公式 GitHub 上 ${ }^{1)}$ に公開されているプログラム run_pretraining.pyを使用し,Google  Colaboratory(Colab) 上の無料の TPU 資源と Google Cloud Storage(GCS) を利用した. Colab 上の TPU 資源を利用することで,GPU よりもさらに学習時間を短縮することが可能である.また, Colab 上の TPU は GCS を介してのみデータの入出力が可能であるため,GCS を利用する必要がある。 事前学習用のコーパスには比較対象である東北大学が公開した BERT(tohoku-BERT) と日本語 Wikipedia 全文を使用し, tokenizer も同じ MecabNEologd を使用する. tohoku-BERT の公式 GitHub2)上にあるプログラムを利用し, 学習用コーパスの作成,テキストの前処理,語彙ファイルの作成,そして事前学習のための tensorflow データセットの作成を行っている。 ## 4.2 モデルの評価 評価は,構築したモデルの小規模領域分野における文書分類タスクの性能により行った. fine-tuning 時に使用した評価用データは Livedoor-news コーパスを使用した.これは株式会社ロンウィットから公開されている livedoorニュースの日本語ニュース記事を集めたデータセットである,各文書はURL,作成日時,タイトル,本文からなる構成だが,ここでは記事本文に属するカテゴリで数値ラベルを付けた. 9つのカテゴリに属する記事本文を訓練用デー タとテストデータに分け, 訓練データでモデルを学習し,テストデータで記事本文からその記事のカテゴリを予測するという 9 值分類タスクを行い,その正解率で性能評価を行う. 各カテゴリの数値ラベルと含まれている記事数を表 1 に示す. 2) https://github.com/cl-tohoku/bert-japanese ## 4.3 実験結果 作成したモデル ELECTRA-Small はパラメータが tohoku-BERT と同じ Base サイズではなく, Small サイズのパラメータで事前学習を行っている。これは事前学習における計算効率性も考慮しているためである. fine-tuning では学習は 50epoch まで行っている. epochごとに学習したモデルを保存し, 各モデルでタスクの正解率が最も大きい值を選択した. 結果を表 2 に示す. モデルの比較対象として参考までに, 株式会社シナモン AI から公開されている SenetencePiece ベースの日本語 ELECTRA モデル (ELECTRASenetencePiece) の比較実験を行っている. このモデルは ELECTRA-Small と同じパラメータサイズで事前学習を行っているモデルである. 表からも明らかなように, ELECTRA-Small のモデルは, ELECTRA-SenetencePiece のモデルよりは高い正解率を出している. しかし, モデルのパラメー タサイズが Base サイズより小さいため, 比較対象の tohoku-BERT の正解率より約 4\%ほど低い結果になっている. 表 2 fine-tuning の実験結果 (正解率) ## 4.4 追加学習 fine-tuning 時に領域に特化した小規模コーパスを使用して訓練を行っているが,ELECTRA モデルの事前学習の計算効率性に注目し, この小規模コー パスを使って追加で事前学習を行うことで,比較対象に匹敵するモデルが構築できる可能性がある. そこで,確認のために実験を行った。具体的には,先の実験で用いた Livedoor-news コーパスの記事本文を平文のまま取り出し,1つの事前学習用データセットとして ELECTRA-Small の追加の事前学習を行った. ELECTRA-Small は既に 1Mstep, 学習時間にして 24 時間ほどの事前学習を行っている. このモデルにさらに $0.25 \mathrm{Mstep}$, 学習時間にして 10 時間ほどの追加学習を行った (ELECTRA-Small-1.25M). 追加学習後のモデルで先ほどの fine-tuningを 5 回 実行し、5 回分の各々のモデルから最も高い正解率の値を取り出し、その平均と最高値を表 3 に表す。 表から明らかなように,比較的パラメータサイズの小さいモデルであっても,領域特化の小規模コーパスで追加学習を行うことで,tohoku-BERTを上回る ELECTRA モデルが構築できることを確認できた。 表 3 追加学習後の fine-tuning の実験結果 (正解率) ## 5 考察 ## 5.1 モデルサイズ 以下の表 4 は,モデルサイズ別の TPUを利用した 1Mstep までの事前学習時間の予測値を表したものである. 表 2 の結果は事前学習モデルのパラメータサイズによる性能差があるため, 厳密なモデル性能の比較とはいえない。しかし, tohoku-BERT と同じパラメータサイズの ELECTRA モデルを構築するには,表4のより 1 つの TPU 資源を利用しても 1 週間ほどの学習時間を要する. モデルサイズが大きくなればなるほど,事前学習には莫大な計算資源を必要とするため,事前学習モデルを構築することは困難になる. モデルの計算効率性と小さいモデルほどパラメータ効率の良い ELECTRA モデルであれば,Small サイズであってもそれなりの性能を発揮したがモデルサイズの違いによる性能差を覆すまでには至らない. より正確なモデル性能の差を確認するためには同一サイズの事前学習モデルを構築する必要がある.これらの調査は今後の課題である. 表 4 モデルの事前学習時間 (1Mstep) ## 5.2 追加学習の効果 表 2,表 3 の結果から,下流タスクの前に領域に特化した小規模コーパスでモデルの事前学習を行うことで, fine-tuning 後のモデルの精度向上につながることは明らかである. BERT や ELECTRA であっ てもモデルのパラメータサイズが大きくなれば,その分事前学習の時間がかかってしまうため, 追加学習を行うことが困難である。しかし,Small サイズのモデルであれば,追加学習にかかる時間は Base サイズのモデルよりも遥に短くて済む. よって, ELECTRA-Small モデルに対して領域特化の小規模コーパスで追加学習を行うことは,より少ない計算量で性能を発揮することが可能であると言える。 ## 6 おわりに 本論文では,ELECTRA モデルの計算効率性とスケールの際の性能の良さに着目し,ターゲット領域の小規模コーパスを用いて ELECTRA モデルの追加学習を行い, 領域特化型の事前学習済みの ELECTRA モデルを構築した. 構築した ELECTRA モデルは比較対象の tohoku-BERT よりも小さなモデルであるが,ターゲット領域の文書分類のタスクでは tohoku-BERT よりも高い性能を出すことができた. 今後はより厳密なモデル同士の性能比較を行うために,同一サイズの事前学習モデルの構築を課題としたい. ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2020 年度国立情報学研究所公募型共同研究 (2020-FC03) の助成を受けています. ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2]Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. Electra: Pre-training text encoders as discriminators rather than generators. In International Conference on Learning Representations, 2020. [3]Xiaochuang Han and Jacob Eisenstein. Unsupervised domain adaptation of contextualized embeddings for sequence labeling. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4238-4248, Hong Kong, China, November 2019. Association for Computational Linguistics. [4]新納浩幸, 白静, 曹鋭, 馬雯. Fine-tuning による領域に特化した distilbert モデルの構築. 人工知能学会全国大会論文集, Vol. JSAI2020, pp. 1E3GS902-1E3GS902, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-1.pdf
# 多義語語義調査を目指した IPAL 形容詞例文への印象評定情報付与 加藤祥 ${ }^{\dagger} \quad$ 浅原正幸 ${ }^{\dagger}$ †目白大学 ††国立国語研究所 s.kato @ mejiro.ac.jp ## 1 はじめに 一般的に読み手が語の意味を判定するとき,典型的な意味との関係に基づき文脈情報や用法・文型などの様々な要素を用いていると考えられる.しかし,読み手の判定根拠は不明瞭である. そこで,文の自然さや意味の取りやすさ, 用法の古さや新しさ, 修辞性などの印象評定を収集することで,語義の判定根拠を取得し, 語義認識や語義間関係認識を調査することにした. すなわち,語義判定の摇れが生じやすい用言を対象とし,読み手が意味を判定する際の印象情報を収集し,多義語の語義との関係について調查する. 具体的には, 計算機用日本語基本辞書 IPAL [1] に含まれる用言の全文型の例文について,一般的な読み手の語義感覚を収集するため,クラウドソーシングを用いた印象評定を行った。さらに,例文に含まれる対象語の分類語彙表番号を付与し,山崎・柏野 (2017) [2]の代表義を付与した. 本稿は,作成したデータの形容詞・形容動詞について, 代表義と読み手の語義判定との関係を調查し, 報告する.一般的な読み手の語義感覚が語義の判定にどのように関わるかを確かめ, 中心的な意味の認定や語義間の派生関係認定への活用可能性を考える。 今後, 動詞類の付与情報整備を進め, 用法や文型を含めた読み手の印象の観点から,用言全体について語彙間の関係を整理する予定である. ## 2 先行研究 ## 2.1 多義語の中心的意味 多義語の語義は当該言語において定着した意味 [3]であり,一般に辞書へ記載されるものと考えられる. しかし,いわゆる多義語の語義数は辞書においてもまちまちであり,それらの語義の掲載順を見ても, 出現年代順 (例: 古い順『広辞苑』, 現在通用している順『大辞林』など)や書き手による重要度判断順(例:意味の関連『ジーニアス』第 3 版まで),頻度順(『COBUILD』,『WISDOM』など)と統一されていない、いずれの語義が中心的であるのか,複数語義がどのような派生関係にあるのかも明示されにくい,そもそも,多義語には何らかの中心的な意味が存在するとされる(瀬戸,2007[4]など)が,複数語義のうちいずれの語義が中心的(代表的,基本的などとも)かという点についても議論が多い. 語義の派生関係を考える際,歷史的な変化が参照される傾向にあるが, 多義構造は再編成されるため,必ずしも中心的な意味が歴史的に古いとは限らない (Tyler \& Evans 2001[5]). また, 語義は基本的なものからそうでないものへと派生し,多義語の意味においては非対称性(派生的意味は基本的意味を想起させるがその逆は成り立たない)を有するとされ,典型性のある(最初に思いつく)語義が中心的と考えられるため, Gries(2006)[6]は使用頻度との関連を考える.中心的な語義とは, 最も確立されており,中立的なコンテクストで最も活性化されやすく, 形式的な制約が少ない(籾山 2001[7], 2002[8], 2003[9] など)ともされる.なお,松本(2009)[10]は,派生の方向性に基づく概念的中心性と機能的中心性を認め, どちらも併せ持つ中心的意味が典型的な中心的意味であるとする.中心的な意味は一様に定められるものではなく,様々な要素によって成立しているのだといえよう。しかし,一般的な読み手は,文脈上多義語に相対するとき,概ねそれほどの労なく語義を読み取ることが可能であり,当該語の中心的な意味や語義の派生関係は一般に共有されているものとも考えられる。 また,多義語の代表義や基本義,中心的意味については,例語を挙げた詳細な分析が数多くなされている。このうち, 網羅的に認定を行ったデータとして, 山崎・柏野[2]が,『分類語彙表』増補改訂版(国立国語研究所, 2004[11])の多義語に人手で代表義を付与する作業を行っている.『分類語彙表』の項目となっている多義語のすべて(14,102 語;山崎・柏野 [2])について,代表義と判定された語義の情報を付与したものである. 複数人の判断によって行われ, また, 染意的にならないように留意するための作業基準も設けられており, 一部に頻度調查(加藤ら, 2018[12])もある. 但し, 概ね専門性を有した作業者の内省的判定であるため, 一般的な読み手の判断とは差のある可能性も考えられた。 ## 2.2 語義・語義関係の調査 読み手が語義の判定を行う作業として,『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号の付与を進めてきた (BCCWJ-WLSP, 加藤・浅原・山崎, 2019[13]). BCCWJ-WLSP では, 掛詞等の特例のほか一つの語に対し一つの語義のみを付与するとしたため, 多義語の意味を付与するにあたっては,作業者が当該文脈によって意味の判定を行った. しかし, 語義情報の付与作業においては, 作業者間あるいは一作業者でも文脈によって摇れの生じる場合がある。特に,派生関係があると考えられるような複数語義の選択にあたり, どちらとも読めると判断される場合がある. 読み手によって意味の摇れが生じやすい語については, 用例間の類似度判定を試みている (西内, 2019[14]など) が, 意味的に類似度が高いと判断されやすい用例では, 文脈(周辺語句) の類似のほか,用法や文型の影響も考えられた。 このほか,研究者により様々な多義語について,基本義の設定や中心的な意味の認定, 語義関係の調查が行われている(䊅山, 2003[9]など多数)ものの,一般的な読み手が多義語の語義を判定するにあたつては, 典型的な意味や高頻度などの影響可能性が指摘されるも, 何に基づいて当該語の意味を決定しているのか明確ではない. ## 3 印象評定調査 ## 3.1 調査方法 一般的な読み手の語義判定根拠としての印象や語義感覚を調査するため, 先行研究で指摘される多義語の複数語義間の派生関係に関わると考えられる要素を含む評定項目を設定することにした. 中心的と考えられる語義には歴史性や思い出しやすさ, 一般的に知られていることなどが関わるとすれば,「古い」「自然」「わかりやすい印象のあることが期待される. また, 派生義が増えるにあたっては, 定着までは「新しい」印象が期待されるほか, 頻度が低いこ となどにより獲得度が低く「わかりやすい」印象が若干低い可能性もある. そして, 派生義に換喻や提喻をはじめ比喻的な転換が感じられる場合には「比喻性」の印象の残ることが期待される. よって, 各用例の印象評定の観点は,「自然さ」「わかりやすさ」 「古さ」「新しさ」「比喻性」の 5 種類とした. 調查にあたっては, Yahoo! クラウドソーシング により, Yahoo!日本語 IDを有する 20 歳以上の実験協力者を, IPAL の各例文に対し 20 名ずつ募集した. 実験協力者は,各例文を読み,各項目について, 0 (まったく違う)5(そう思う)の6 段階から評定値を付与した (図 1 参照). 図 1 判定画面例 ## 3.2 調査対象としたデータ BCCWJ-WLSP では実例の収集が可能であるが,多義語の語義(複数の分類語彙表番号)が必ずしも全て収集できるのではない。実際には使用されにくい語義もあり, 用法や文型の点においては同種の文型に偏りが見られるなど体系立った用例収集は難し い.といって, 網羅的な語義, 用法, 文型という点において,一般的な辞書からは十分な用例が収集しにくい. そのため, 計算機用日本語基本辞書 IPAL[1] の例文を用例として使用することにした. IPAL は,意味記述のほか統語情報として詳細な用法が記述され,各々の用法と文型についてそれぞれの文例が記されている. 調査にあたっては, IPAL に含まれた用言 $^{\mathrm{i}}$ (動詞 861 語とサ変動詞 50 語, 形容詞 135 語,形容動詞 30 語)について, 掲載されていた文例全てを使用した. 動詞類の 5,385 例と形容詞類の 2,319 例を対象とする. また, 用例における各対象語の語義として, 分類語彙表番号を付与した. なお, IPALの動詞類には分類語彙表番号が付与されているが,ほとんどの番号が改訂版[11]において該当せず,手作業で全例の確認と修正を行った。また, IPAL 語義は分類語彙表の分類と重ならない場合が多いため, IPAL が多義もしくは複数用法や文型を認める場合に分類語彙表に当該分類がないと判断された場合,該当する分類語彙表番号を付与した. 反対に, 分類語彙表が多義と認める場合に IPAL に該当する用例の掲載がない場合, 備考を付した. これらの分類語彙表番号の付与は, 作業者 2 名が IPAL の語義を参照しながら手作業で進めた. 但し, 印象評定の収集時には,語義を提示せず用例のみを提示するため,用例において一意に定められないと判断された場合,複数の分類語彙表番号を付与した. 以降, 本稿では形容詞類のデータを取り上げ,付与状況とデータに見られる傾向を報告する. ## 4 データの分析と考察 ## 4.1 印象評定調査の基礎統計 表 1 に本調查で収集した形容詞類の評定の平均値を示す. 形容詞・形容動詞の種類に関わらず,類似した評定値が得られている.「自然さ」と「わかりやすさ」は平均 4 以上の高い評定値が得られた.なお,名詞的な形容動詞では「比喻性」が若干下がる傾向が見られる.  表 1 印象評定調査結果(評定は平均) ## 4.2 代表義情報との対照 次に代表義情報と印象評定情報の対照を行った. また,各例文に対象語の語義(分類語彙表番号)を付与することとし, 多義語については山崎・柏野の代表義情報[2]を付与した(付与情報例は付録を参照). 分析は代表義情報を 5〜1 の代表義度として数值化したうえで, 印象評定值を固定効果とし、用例をランダム効果とした次式による一般化線形混合モデルにより回帰して行った. 代表義度自然さ+わかりやすさ+古さ+新しさ + 比喻性 + (1|用例). 表 2 代表義度の回帰分析による各評定値の固定効果推定値 (形容詞) 表 2 に分析結果について示す.「わかりやすさ」が高く判定される場合, 代表義度が高い傾向にある. また,「比喻性」が高く判定される場合, 代表義度は低い傾向にある. 自然でわかりやすい語義が代表義であり, 比喻性が感じられる語義は派生義である可能性が高いと考えられる。また,「古さ」と「新しさ」 については強い傾向ではないが, 古いと代表義度が低くなり,新しいと代表義度が高くなる傾向がみられた。一般にいわゆる歴史性や原義の意識は薄く,現在も一般的に使用されている語義が代表義に近いと考えられている可能性があろう.最後に「自然さ」 は代表義との関連性は確認できなかったが,「わかり 290 語を記述としている。なお, 動詞辞書では漢語サ変動詞を扱わず,その後動詞辞書の枠組みを使った 50 語の試作例を提供しているだけであったが,これも名詞の一用法として捉え, サ変動詞用法のある名詞約 650 語を名詞辞書の中で記述している。」 やすさ」と相関係数が高く $(0.8$ 以上 $(\mathrm{p}<.01))$ 多重線形性の問題があったと考える. ## 4.3 事例分析「うるさい」「くさい」 個別の用例を取り上げ,データの傾向を確認しておく.ここでは, 分類語彙表でも IPAL でも多義語とされ,かつ各語義に複数例文の見られた「らるさい」「くさい」を例とし, 付与情報に見られる傾向を示す (付録の「うるさい」「くさい」データを参照). 「うるさい」の具体的な用例を見てみると,代表義とされる「音」に関する「プリンターの音」「(犬の)鳴き声」などの古さ・新しさ・比喻性が低い. また, 自然さとわかりやすさが高く評定される傾向も見られる。但し,「隣の犬がうるさい」のように,文脈的に音であることが明示されない場合は, 比喻性が高く(2.15)評定される. しかし,「蚊がうるさくて、眠れなかった」のように理由節に当該語が含まれる場合には,「眠れなかった」原因が音であることが連想されるためもあろうが, 比喻性は低く (0.35)評定されることになる. 文型と文脈的な情報量の影響を整理する必要がある。 「近所づきあいがうるさい」の語義「邪魔あるいは面倒で、できれば避けたいと思う。(IPAL)」(分類語彙表番号: 3.3014)は, 自然さとわかりやすさが低く,「蚊がうるさくて、眠れなかった」が同義の用例とは読まれていなかったことがわかる. このように 3.3014 のような一般的に読み取られにくい語義は, はたして対象語の語義と認めるべきかという問題もあろう。 また,音に関する用例に次いで自然さとわかりやすさが高い用例は「あの会社はあれこれと注文がうるさい」と「僕は紅茶にうるさい」(分類語彙表番号: 3.3100)であるが,IPALではそれぞれ「注文や要求などが、いやになるほど細かくしつこい。」「いろい万と細かい文句や注文をつけて厳しい。」という別語義の例文とされている. どちらも語義として認められるのかという問題については, 本調查から判定し難い. 同様に,「くさい」の例では,代表義とされる「におい」に関する用例で比喻性が低く, 特に「におい」 の語が例文中に明示される場合において低い(「煙草の」「ブルーチーズは」,「においが臭い」)傾向にある. 但し,「にんにくのにおいは臭い」のみ若干比喻性が高くなっていた。同文型の「足は臭い」におい て類似した比喻性の値が得られていることから,「A が臭い」と「A は臭い」の差異が生じているものと考えられる。係助詞「は」によって対照するものが想起されるという文型によって, 比喻性の印象が異なる傾向があり得る. なお,におい(分類語彙表番号: 3.5040)の例とされていた「何か臭い」は新しさが高く, 比喻性も高く評定されており,「証言が臭い」「このあたりが臭い」同様に「重要な情報が隠されていると感じさせる。(IPAL)」(分類語彙表番号: 3.3068) として読まれた可能性があ万う,語義に対応した例文であっても, 文脈的に対象が明示されない場合には, 情報量が少ないために連想される余地が多く比喻性が上がるものと考えられる.「隣の犬がうるさい」「何か臭い」のように曖昧性の高い用例については新しさの印象が強まるため, 前節 (4.2) で見た「新しさ」が代表義度に影響している可能性があろう. ## 5 おわりに 本稿は,一般的な読み手が多義語の語義を認識するに際し何を判定根拠としているのか,また,一般的にどのような語義感覚を有しているのか, 多義語の用例に対する印象評定を収集することで分析を試みた。IPAL 辞書[1]に掲載された用言の例文全てに対し, 印象評定と分類語彙表番号を付与し, 代表義情報[2]と対照した。結果, 自然さやわかりやすさが高く, 比喻性が低いと判断されれば中心的な意味に近いと言えそうである. 付与した情報を用いることで,今回取得できた比喻性の高い文型や「慣用的」な判断の活用についても検証を行いたい. 古くて比喻性が感じられるとされる用例が一般的に「慣用的」な比喻表現であり,被喻辞の説明が少ない文型ほどわかりやすさが低く,比喻性が高く判断されると考えられるため, このような用法や文型が比喻表現の収集に有用な可能性があろう。 ## 謝辞 本研究は国立国語研究所コーパス開発センター共同研究プロジェクトの成果物です. また, 科研費 17H00917,18K18519,19K00591,19K00655の支援を受けました。 ## 参考文献 1. 情報処理振興事業協会(IPAL).GSK 配布版「計算機用日本語基本辞書 IPAL 一動詞 - 形容詞 - 名詞一」, GSK2007-D, 2007. 2.『分類語彙表』の多義語に対する代表義情報のアノテーション. 山崎誠・柏野和佳子. 言語処理学会第 23 回年次大会発表論文集, 2017. 3. Cruse, Alan. Meaning in Language: An Introduction to Semantics and Pragmatics. Oxford University Press, 2011. 4. 瀬戸賢一, メタファーと多義語の記述, 楠見孝編『メタファー研究の最前線』, ひつじ書房, 2007. 5. Tyler, Andrea, and Vyvyan Evans. Reconsidering prepositional polysemy networks: The case of over. Language 77, 2001. 6. Gries, Stefan Th. "Corpus-based methods and cognitive semantics: the many meanings of to run." In Corpora in Cognitive Linguistics: Corpus-based Approaches to Syntax and Lexis. Ed. by Stefan Th. Gries and Anatol Stefanowitsch. Berlin: Mouton de Gruyter, 2006. 7. 籾山洋介. 多義語の複数の意味を統括するモデルと比喻, 『認知言語学論考』1, ひつじ書房, 2001. 8. 粎山洋介. 『認知意味論のしくみ』研究社出版, 2002 . 9. 䊅山洋介. 多義性. 松本曜編『認知意味論』, 大修館書店, 2003. 10. 松本曜. 多義語における中心的意味とその典型性: 概念的中心性と機能的中心性, Sophia linguistica: working papers in linguistics (57), 2009. 11. 国立国語研究所資料集 14 『分類語彙表 -増補改訂版-』, 2004. 12. 多義語の語義分布と語義間の派生関係調查の試み一相の類を中心に,加藤祥,田邊絢,浅原正幸,古宮嘉那子, 新納浩幸, 言語処理学会第 25 回年次大会発表論文集, 2019. 13. 加藤祥, 浅原正幸, 山崎誠. 分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ,『日本語の研究』15(2), 2019. 14. 語義間類似度の双方向評定に基づくプロトタイプ的意味の解明ークラウドソーシングを用いた量的調查による多義的形容詞分析一, 西内沙恵, 加藤祥,浅原正幸, 日本認知言語学会第 20 回大会予稿集, 2019 . 「うるさい」例 获 「くさい」例 筣 IIII
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-20.pdf
# ガウス過程を用いた Dynamic Topic Model による時系列分析 緒方学人伊東拓真阿部秀尚 文教大学情報学部 \{b7p31078, b7p31013,hidenao\} @ bunkyo.ac.jp ## 1 はじめに 近年,SNS,Web の普及により,ニュース記事, Twitter のツイート,ブログ記事などの投稿が大量に行われている.これらに伴い, 大量の文書集合から,内容を把握することは難しい問題であった. そのため, 文章集合の内容を把握できる話題の抽出, 時系列的に話題がどのような変化するかを目的とされた Latent Dirichlet Allocation(LDA)[1]をはじめとする数々のトピックモデルが多く研究されてきた. LDA とは,各トピックの単語分布と各文書に割り当てられたトピック比率が生成され, これらに従って, サイコロのようにトピックを無作為で選択され,また同様に単語を無作為に選択されるようなモデルである. また時系列トピックモデルとは, トピックの単語分布や文書に割り当てられるトピック比率が時間に依存するモデルである.このようなモデルとしたさまざまな時系列トピックモデルが提案されている.代表的なものとして, 話題の隆盛に着目した Dynamic Topic Model(DTM)[2]などが挙げられる. DTM のモデリング要件として, 「対象とする現象にどのような性質があるのか」,「データからどのような情報を抽出したいのか」, 「時間的に近接する文書集合は類似したトピックを共有する」などが挙げられ, この要件からトピックの単語分布が時系列での変化するモデルが仮定している。 [2]より, 時系列での単語の変化が示されている. 本論文では,ニュース記事を対象にあるトピックが別のトピックに影響している事例があると考えられる. 例えば, 2020 年アメリカ大統領選挙といった政治的な事例に対して, 次の時刻では, 株価への影響が実際に起きた経済的な事例があり,また,ある時刻ではスポーツといった話題と政治的な話題が時刻間での関係ないことがあるなど,複数のトピック間に類似性がある場合やない場合がある.既存のトピックモデルではトピックの単語分布のみ時系列変化に依存しているため, 複数の類似したトピックと類似していなトピックの時系列変化を捉えることが できない。これらに対して,DTM と文書間とトピック間の類似性を測ることができる Gaussian Process Topic Model(GPTM)[3]を組み合わせた Gaussian Process-Dynamic Topic Model(GP-DTM)および推論方法を提案する.GP-DTMにより,上述の問題への対処を示す. 既存のトピックモデルの各トピックの単語分布は独立しているため,上述の通り複数のトピックは何かしらの時系列的な依存関係があることを仮定し,提案モデルによる推論を行い,関係性を示す。提案モデルによる推論を行うことで,大量の文書集合が生成している複雑な情報社会に対して,時系列的に類似している話題を抽出し,ユーザの理解を目的とする. ## 2 関連研究 本論文で関連して,本論文と似たような問題設定を行い,Temporal Dirichlet Process Mixture の拡張版, Multi-dependent Temporal Dirichlet Process Mixture(MdTDPM)による複数のトピック間が依存し合いながら時間発展を仮定するモデルが提案されている[4].実験データとして,「YOMIURI ONLINE(読売新聞)」にて 2014 年 4 月 25 日から 2014 年 6 月 16 日までの 4373 件,「毎日新聞のニュ一ス・情報サイト」における 2014 年 7 月 15 日から 8 月 14 日までの 2880 件の 2 つのニュース記事を用いて,複数のトピックへの依存の有用性を示している. [5]では,ニュース記事からトピック抽出し, 時系列で表示し,対象とするトピックと他のトピックの類似性を算出しており,時系列変化への相関性などを考察している. また, Google Trends のキーワード入力により,人気度の動向や関連トピック,関連キーワード,地域によっての興味度の視覚化などが挙げられる。 ## 3 モデルの概要 ## 3.1 潜在的ディリクレ配分法(LDA) LDA は, トピック数 $\mathrm{k}$ を固定したとき, 単語の種類数 $V$ とおくとする. 単語のトピック分布は $\phi_{k}=$ $\left(\phi_{k, 1}, \ldots, \phi_{k, V}\right)$ と呼ばれる変数に対応し, 文書数 $\mathrm{M}$, 文書 $d$ の総単語総数を $\mathrm{N}$ とおき. LDA では各文書 $d$ は複数のトピックから構成され, その構成比率は $\theta_{d}=$ $\left(\theta_{d, 1}, \ldots, \theta_{d, K}\right)$ と呼ばれる変数に対応されている. $\phi_{k}, \theta_{d}$ は確率ベクトルであるため, 離散分布であるディリクレ分布によって生成を仮定し,以下のように示される. $ \left.\{\begin{array}{lr} \theta_{d} \sim \operatorname{Dirichlt}(\alpha) & (d=1, \ldots, M) \\ \phi_{k} \sim \operatorname{Dirichlt}(\beta) & (k=1, \ldots, K) \end{array}\right. $ $\alpha, \beta$ は $\mathrm{K}$ 次元, $\mathrm{V}$ 次元ベクトルのパラメータである. また, $z_{d, i}$ は各文書 $d の \mathrm{n}$ 番目の単語に対する潜在トピックであり, 各単語に割り当てられる. そし $\tau w_{d, i}$ は各トピックの単語分布 $\phi_{k}$ のうちどれから生成されたかを示す変数である. $z_{d, i}, w_{d, i}$ は離散値であるため, 生成分布として, カテゴリー分布を仮定し,以下のように示される。 $ \begin{aligned} z_{d, i} & \sim \text { Categorical }\left(\theta_{d}\right) \\ w_{d, i} & \sim \operatorname{Categorical}\left(\phi_{z_{d, i}}\right) \end{aligned} $ ## 3.2 ガウス過程状態空間モデル まずガウス過程状態空間モデルを説明する前に,状態空間モデルを説明する. 状態空間モデルとは,時系列モデルの一種で観測データと観測データの裏側に存在する潜在状態の変動を推定するモデルであり,DTM や本論文の提案モデルである GP-DTM のモデリングの際に扱うモデルである. 式で表すと,下記のように示される. $ x_{t}=f\left(x_{t-1}\right)+\varepsilon_{f}, y_{t}=g\left(x_{t}\right)+\varepsilon_{g} $ 式(4)に着目すると,ここでtは時間を表し, $x_{t-1}, x_{t}$ には依存関係があると仮定したモデルであり,左の方程式を状態方程式と呼び, 状態遷移関数 $f(x)$ と独立した過程誤差 $\varepsilon_{f}$ で成り立つ. また, 右の方程式を観測方程式と呼び, 観測関数 $g(x)$ と独立した観測誤差 $\varepsilon_{g}$ で成り立っている. 過程誤差と観測誤差は正規分布から生成され, $\varepsilon \sim N\left(0, \sigma_{.}^{2} I\right)$ と定式化でき, $ \left.\{\begin{array}{l} x_{t} \sim N\left(f\left(x_{t-1}\right), \sigma_{f}^{2} I\right) \\ y_{t} \sim N\left(g\left(x_{t}\right), \sigma_{g}^{2} I\right) \end{array}\right. $ と表すことができ,式(3)と同じように考えることはできるが, $x_{1} \sim N\left(f\left(x_{0}\right), \sigma_{f}^{2} I\right)$ と一緒に考える必要がある。式(5)は DTM, GP-DTM のモデル化するのに扱うので,今後式(5)で説明を行う。 次にガウス過程とは,任意の自然数 $\mathrm{N}$ に対して,入力 $x_{n}=\left(x_{1}, \ldots, x_{N}\right)$ に対して, 出力 $f\left(x_{n}\right)=$ $\left(f\left(x_{1}\right), \ldots, f\left(x_{N}\right)\right)$ が平均 $\mu$, 分散共分散行列 $K=$ $k\left(x_{n}, x_{n^{\prime}}\right)$ をもつ多変量正規分布 $N(\mu, K)$ に従うとする.つまり, $ f(x) \sim G P(\mu, K) $ と表すことができる。ここで,分散共分散行列 $K=$ $k\left(x_{n}, x_{n^{\prime}}\right)$ はカーネル行列と呼び, $\mathrm{x}$ 座標とする入力 $x^{\prime}$ が与えられたら, $\mathrm{y}$ 座標とする $x^{\prime}$ の付近にあるデー 夕点と近い値をとる行列である. そしてガウス過程状態空間モデルでは, 状態空間モデルの状態遷移関数 $f$ および観測関数 $g$ をガウス過程によりモデル化を行い,下記のように示される。 $ \begin{aligned} & f(x) \sim G P\left(\mu, K_{f}\right) \\ & g(x) \sim G P\left(\mu, K_{g}\right) \end{aligned} $ その他は,通常の状態空間モデルの式(5)と同じように定式化される. ガウス過程状態空間モデルはガウス過程により, 非線形な時間発展を考えることができるノンパラメトリックのモデルであり,表現力が高い。また複数の時系列に対して,類似性を測ることが可能である. ## 3.3 Dynamic Topic Model(DTM) Dynamic Topic Model(DTM)とは, LDA と状態空間モデルを組み合わせたモデルであり,時刻 $t-1$ と $t$ の依存関係があるとことを考慮し, 時刻 $t$ におけるトピックの単語分布 $\phi_{t, k}$ の時系列変化をモデリングする手法である.定式化を下記のように示される。 $ \theta_{t, d} \sim \operatorname{Dirichlt}\left(\alpha_{t}\right) $ 文書のトピック比率 $\theta_{t, d}$ は LDA と同様にディリクレ分布より生成され, トピックの単語分布 $\phi_{t, k}$ は時刻 $t-1$ と $の$ 依存関係を考慮するため, 上述の状態空間モデルにより定式化される. $ x_{t, k} \sim N\left(x_{t-1, k}, \sigma^{2} I\right) $ 式(9)は V 次元の実ベクトル $x_{t, k}$ を正規分布より生成され,正規分布から生成分布と仮定しているため,要素和が 1 とは限らず,負の値を取ってしまう.そのため,式(9)に Soft-max 関数を利用して変換する. $ \phi_{t, k, v}=\frac{\exp \left(x_{t, k, v}\right)}{\sum_{v^{\prime}=1}^{V} \exp \left(x_{t, k, v^{\prime}}\right)} $ そして, 潜在トピック $z_{t, d, i}$ と各トピックの単語分布 $\phi_{k}$ のうちどれから生成された単語集合 $w_{t, d, i}$ は LDA と同様に, $ \begin{gathered} z_{t, d, i} \sim \text { Categorical }\left(\theta_{t, d}\right) \\ w_{t, d, i} \sim \text { Categorical }\left(\phi_{t, z_{d, i}}\right) \end{gathered} $ ## 3.4 Gaussian Process Dynamic Topic Model DTM はトピックの単語分布のみ時系列変化に依存しているため, 複数の類似したトピックと類似していないトピックの時系列変化を捉えることができない. また時系列変化の類似性を測ることはできないため, 複数の文書間, トピック間の類似関係を考慮した時系列トピックモデルを考える。そのため,時系列の類似性を考慮し, 表現力が高いガウス過程状態空間モデルと DTM を組み合わせたモデルを提案する. 具体的には, LDA の各文書のトピック比率はディリクレ分布によって生成されているため, 文書間の相関性や類似性を把握できない. それに対して, トピック比率をガウス過程から生成し, カーネルにより文書間の類似性を把握できるように仮定する. また文書も時系列的に依存関係があることも考慮しながら, 状態空間モデルを定式化するが, 状態空間モデルは生成分布を正規分布と仮定しているため, 本論文では多変量正規分布を仮定し, 分散共分散行列により相関性を取り入れることで文書間の相関性を持つことを仮定する。そしてガウス過程からトピック比率を生成していると仮定しているため, 3.3 節と同様に Soft-max 関数を利用して変換する必要がある。 $ \begin{aligned} & g(\eta) \sim G P\left(\mu, \mathcal{K}_{t}\right) \\ & \eta_{t, d} \sim N_{k}\left(g\left(\eta_{t-1, d}\right), \Sigma\right) \\ & \theta_{t, d, k}=\frac{\exp \left(\eta_{t, d, k}\right)}{\sum_{k^{\prime}=1}^{K} \exp \left(\eta_{t, d, k^{\prime}}\right)} \end{aligned} $ 次にトピックの単語分布もトピック比率と同様に考え, $ \begin{aligned} & f(x) \sim G P\left(\mu, \mathcal{K}_{t}^{\prime}\right) \\ & x_{t, k} \sim N_{k}\left(f\left(x_{t-1, k}\right), \Sigma\right) \\ & \phi_{t, k, v}=\frac{\exp \left(\eta_{t, k, v}\right)}{\sum_{v^{\prime}=1}^{V} \exp \left(\eta_{t, k, v^{\prime}}\right)} \end{aligned} $ と示される. 次に, 潜在トピック $z_{t, d, i}$ と各トピックの単語分布 $\phi_{k}$ のうちどれから生成された単語集合 $w_{t, d, i}$ は DTM と同様に, $z_{t, d, i} \sim$ Categorical $\left(\theta_{t, d}\right), w_{t, d, i} \sim$ Categorical $\left(\phi_{t, z_{d, i}}\right)$ ## 4 実験結果と評価 ## 4.1 評価方法 提案モデルの評価として,今回扱うデータである goo ニュースの 2020/12/30 2020/1/6 の「社会」, 「ビジネス」,「政治」,「国際・科学」から各日付, 各ジヤンルから 5 件のニュース(合計 160 件)を抽出した Bag-of-words 形式のニュースデータである. ニュー スデータから 8:2 に学習用データと評価デー夕に分割し, 1 6 のトピック数を用いて, LDA, GP-DTM の二つのモデルを 6 回繰り返し学習し, Perplexity の平均を求め, 比較評価を行った。 Perplexity とは,トピックモデルの予測精度を測る評価指標としてよく扱われる. Perplexity は値が低いほど,モデルの予測性能が高いことを示している.下記に Perplexity の式を示す. $ \text { perplextiy }=\exp \left(-\frac{1}{N} \sum_{d} \log p\left(w_{d}\right)\right) $ 表 1 Perplexity によるモデル比較 式(21)では, $\mathrm{N}$ はテストデータ中の総単語数のことを指し, $w_{d}$ は文書 $\mathrm{d}$ に含まれる単語である. ## 4.2 実験結果 Perplexity の最小値としては, トピック数 2 の提案モデルよりトピック数 3 の LDA が優れていることがわかつた。また,時系列の順序にトピックを抽出し, 時刻 $t$ と時刻 $t-1$ の互いの類似度を測った. 本論文では,2020/12/30 2021/1/6 を対象にコサイン類似度を測った. 話題の類似性の平均および時系列のトピックの結果 1 10 位の確率が高いものを図 2 に示す.トピックを時系列順に考察すると,「社会関連」,「社会関連」,「国際関連」,「社会関連」,「政治関連」,「政治関連」,「コロナ関連」,「コロナ関連」のような話題を取り上げられていると解釈できると考える. したがって, 図 2 の時系列トピックの類似関係を考察して,類似関係があるものを図 3 に示す.上記の図の関係性はコロナ関連で成り立っている。 そのことから, 社会的な話題から国際的な話題, 政治的な話題, コロナ関連の話題の共通として類似しているものはコロナ関連であることが解釈できる. ## 5 まとめ 本論文では,時系列での各トピックの類似性があることを仮定し, 時系列トピックモデルを提案し, そのモデルの推論方法と実際のニュース記事のデータを用いて,実験を行なって,考察した。結果として Perplexity を用いて, モデル選択の評価では, LDAの万が提案モデルより優れていたが,仮定した問題への話題の類似関係を示すことができた. 今後の課題としては, Perplexity の精度を上げ, 話題の類似関係を可視化できるようにしたいと考える. Perplexityに対して, 提案モデルの近似事後分布の設定やモデル自体の改善, 別の推論を検討する必要があると考えられる。 表 2 各日付のトピック 表 3 各日付のトピック類似関係 ## 参考文献 [1]. Blei, D. M., Ng, A. Y. and Jordan, M. I.: Latent dirichlet allocation, the Journal of machine Learning research, Vol. 3, pp. 993-1022 (2003). [2]. Blei, D. M. and Lafferty, J. D.: Dynamic topic models, Proc. ICML'06, ACM, pp. 113-120 (2006). [3]. Stefanos Eleftheriadis, Thomas F.W. Nicholson, Marc P. Deisenroth, James Hensman.:Identification of Gaussian Process State Space Models. [4]. 佐々木健太郎, 吉川大弘, 古橋武.: 複数の卜ピックの時間依存関係を考慮した時系列トピックモデル(2014). 情報処理学会研究報告.Vol.2014-MPS-100 No3 [5].山田大造.新聞記事に対するトピックモデルの適用とトピックの時系列変化に関する考察(2017). 情報処理学会研究報告.Vol.2017-CH-115 No1
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-2.pdf
# QA Lab-Polilnfo-3 における Fact Verification 横手健一 日立製作所 kenichi.yokote.fb@hitachi.com 秋葉友良豊橋技術科学大学木村泰知 小樽商科大学渋木英潔 国立情報学研究所 kimura@res.otaru-uc.ac.jp 小川泰弘 名古屋大学石下円香 国立情報学研究所 ## 1 はじめに 国立情報学研究所が主催する NTCIR プロジェクトの一つとして QA Lab-PoliInfoを開催してきた. QA Lab-PoliInfo は質問応答や自動要約などの自然言語処理のアプローチにより, 政治情報における信恣性問題を解決することを目指す. 本稿では,NTCIR-14 QA Lab-PoliInfo segmentation の後続タスクとなる Fact Verification タスクについて述べる. ## 2 Fact Verification の位置付け 本章では,Fact Verification タスク(以降「本タスクと呼ぶ」)について, 先行タスクとの差異, 本タスクの狙い, および関連研究を述べる。 ## 2.1 先行タスク:NTCIR-14 QA Lab-Polilnfo segmentation NTCIR-14 QA Lab-PoliInfo segmentation[1] では, 原文書とその中の一部を要約したテキストを入力として与え,テキストが原文書のどこを要約したかを文レベルで特定する. 原文書として東京都議会の発言記録を対象とし, 要約テキストとして, 都議会の活動を発信する広報紙である「都議会だより」を対象とする.いずれも、インターネット上に公開されている [2][3]. 発言を引用, 要約して生成した二次情報は, 発言の一部が欠落することにより, 発言者の本来の意図とは異なった印象を読者に与えてしまう危険性がある. 二次情報に対応する実際の発言を同時に提示することで, 誤った解釈で二次情報が流通することを防止する。 ## 2.2 Fact Verification タスクの狙い NTCIR-14 QA Lab-PoliInfo segmentation が対象とした広報紙「都議会だより」は, 東京都議会の発言記録を元に作成している. 従って, 都議会だよりの各記述 に対応する実際の発言は必ず存在し, その必ず存在する発言情報(要約テキストに対応する原文書中の開始行と終了行)を特定する問題として扱うことができた. 一方で, 実際の発言が存在しない架空の二次情報を入力した時, 原文書中に対応する発言が存在しないことを提示することはできなかった. 本タスクは,NTCIR-14 QA Lab-PoliInfo segmentation が対象とした「東京都議会の発言記録」,「都議会だより」 に加えて, 実際の発言が存在しない架空の「都議会だより」を作成し, 評価の対象とする.これによって,誤った解釈で二次情報が流通することだけでなく,根拠が存在しない偽の二次情報が流通することも防ぐ手段を検討する. ## 2.3 関連研究 本節では,フェイクニュース問題や Fact Checking を扱う関連タスク事例について述べる。 ## 2.3.1 SemEval-2017 Task 8: RumourEval SemEval-2017 Task 8: RumourEval タスク [4] は, ソーシャルメディアに投稿された噂 (Rumour) とそれに対する返信投稿の各やり取りに対して, 賛成反対などのスタンスに関する 4 種類のラベルに分類するサブタスク A と,その噂が正しいかどうかの信恣性を 0 から 1 の確信度で出力するサブタスク B を実施した. ラベル付与の正解はクラウドソーシングで作成し, 信憑性の正解はジャーナリストのような専門家によって作成した. サブタスク A の評価はラべル付与の正答率, サブタスク B の評価は確信度の平均平方二乗誤差 (RMS Error) を用いた. ## 2.3.2 The Fact Extraction and VERification (FEVER) The Fact Extraction and VERification (FEVER) Shared Task[5] は, 人手で作成した主張 (Claim) に対して, 正しい (SUPPORTED), 誤り(REFUTED), 情報不足 (NotEnoughInfo) の 3 種類のラベルに分類する判定と,SUPPORTED と REFUTED の場合はその根拠となるテキストを Wikipedia から抽出するタスクを実施した.Claim は Wikipedia のテキストから言い換えるなどの手法で人手で生成し, ラベルと根拠テキストの付与も人手で行った. 根拠テキストを漏れ無く人手で収集することは困難のため, タスク参加者のシステムを用いて収集できた根拠テキストも利用した. 評価は, ラベル分類の正答率と, 抽出した根拠テキストの文レベル F-measure によって実施した. ## 3 データセットの説明 本章では, データセットの構成について述べる. 表 1 は, 本タスクの原文書に相当する「東京都議会の発言記録」のカラム名称とサンプルデータである. 発言記録を行で分割したテキストを最小単位とし,「ID」 は各分割テキストに一意な値である。「Line」は何行目の分割テキストであるかを示す.「Prefecture」は本タスクでは東京都を値に持つ.「Title」は発言がなされた会議の名称を示し,「Volume」と「Number」は会議名を識別するための情報を示す.「Year」「Month」「Day」は発言した日時を示し,「Speaker」は発言者,「Utterance」は発言の内容を示す. 表 2 は, 本タスク 表 1 東京都議会会議録のデータ構造 の要約テキストに相当する「都議会だより」のカラム名称とサンプルデータである.「架空の都議会だより」についても同様のデータ構造を持つ. 会議中の一つの質問とそれに対する回答の組を最小単位 (以降「答弁」と呼ぶ)とし,「ID」によって各答弁に一意な值を割り当てる.「Prefecture」は東京都を値に持ち,「Meeting」は答弁がなされた会議の名称,「Date」は答弁がなされた日時を示す.「MainTopic」 と「SubTopic」は答弁を分類するためのカテゴリ情報を示し, 複数の答弁が一つの MainTopic,SubTopic に属する。「QuestionSpeaker」は質問の発言者,「AnswerSpeaker」は回答の発言者,「QuestionSummary」は質問の要約,「AnswerSummary」は回答の要約を示す.「QuestionStartingLine」,「QuestionEndingLine」, $\ulcorner$ AnswerStartingLine」,「AnswerEndingLine」は, 要約テキストが「都議会だより」の場合, 要約の元となった「東京都議会の発言記録」データの Line の値を示す. NTCIR-14 QA Lab-PoliInfo segmentation タスクでは,Lineの値が入力済みの「都議会だより」データを教師データとして配布し,未大力の「都議会だより」 データに対して Line を推定するタスクとして実施した. 要約テキストが「架空の都議会だより」の場合, 要約元が存在しないことを示す固有の表記を設けることを検討している。 表 2 都議会だよりのデータ構造 \\ 強い危機感に立ち、 \\ AnswerSummary & な現場を踏まえて緊急に \\ & 日本再生に向けて \\ & 速やかに行動して、 \\ 都民・国民の不安を \\ 振り払ってもらいたい。 \\ ## 4 評価方法 本章では, 本タスクの評価指標について述べる. 先行タスクである NTCIR-14 QA Lab-PoliInfo segmentation[1] で実施した Precision,Recall,F-measure に加えて, 要約テキストが「架空の都議会だより」 である時に, 要約元が存在しないことを判定できたかどうかに関する指標を設ける。例えば, 前記 SemEval-2017 Task 8: RumourEval タスクのように 0 から 1 の確信度を出力することを求め, それらの平均平方二乗誤差 (RMS Error) で評価する方法を検討している. ## 5 おわりに 本稿では,NTCIR-14 QA Lab-PoliInfo segmentation の後続タスクとなる Fact Verification タスクについて, タスクの狙い, 関連研究, データセットの構成, 評価指標を紹介した. 本タスクは予備テスト(Dry Run)期間と本テスト(Formal Run)期間を設け,Dry Run 期間中は仮のデータセットと評価指標で実施し, 本タスクの課題洗い出しを行う. その後に, 正式なデー タセットと指標を決定し,Formal Run を実施する計画である。 ## 参考文献 [1] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, et al. Overview of the ntcir-14 qa lab-poliinfo task. In Proceedings of the 14th NTCIR Conference, 2019. [2] 会議録・速記録 | 東京都議会. https://www.gikai. metro.tokyo.jp/record/. [3] 都議会だより.https://www.gikai.metro.tokyo.jp/ newsletter/. [4] Leon Derczynski, Kalina Bontcheva, Maria Liakata, Rob Procter, Geraldine Wong Sak Hoi, and Arkaitz Zubiaga. Semeval-2017 task 8: Rumoureval: Determining rumour veracity and support for rumours. arXiv preprint arXiv:1704.05972, 2017. [5] James Thorne, Andreas Vlachos, Oana Cocarascu, Christos Christodoulopoulos, and Arpit Mittal. The fact extraction and VERification (FEVER) shared task. In Proceedings of the First Workshop on Fact Extraction and VERification (FEVER), pp. 1-9, Brussels, Belgium, November 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-3.pdf
# 『日本語日常会話コーパス』に対する自然会話特有の現象を 区別するための係り受け関係ラベルの付与 吉田奈央 $\dagger$ 宮尾祐介† $\dagger$ 東京大学大学院情報理工学系研究科 ## 1 はじめに 本研究は、自然な音声会話の構文解析の研究のため、『日本語日常会話コーパス』(Corpus of Everyday Japanese Conversation; CEJC) [1] に対して係り受け関係アノテーションデータを構築することを目的とする。特に、自然会話ではフィラー、言い直し、挿入、省略といった現象によって構文構造が崩れることに着目し、これらの現象を正確に表示するための係り受け関係ラベルを設計した。日本語の係り受けアノテーションデータはこれまで多数開発されており、 ガイドラインの整備が行われている $[2,3]$ 。しかし、書き言葉や独話を主として整備されてきたガイドラインは、自然会話のアノテーションにそのまま適用することは自明でない。 『日本語日常会話コーパス』は、国立国語研究所が開発を進めている大規模コーパスであり、さまざまな場面における自然な日常会話の音声・映像を収録したものである。本研究では、本コーパスのコアデータに対し、書き起こしテキスト、短単位レベルの形態論情報およびラベルなし係り受け関係がアノテーションされたデータを用いる。まず、本データの形態論情報・係り受けアノテーションを分析し、自然会話特有の現象のために通常の係り受け関係が付与できないケースを収集する。そして、これらの現象を分類し、各現象を区別するための係り受け関係ラベルを定義する。本稿では、10 会話 5480 発話文について分析・アノテーション作業を行った。以下では、アノテーションの作業方法と、開発したデータの分析結果を報告する。 ## 2 先行研究 本節では、本論文でガイドラインを参照している日本語話し言葉コーパス (Corpus of Spontaneous Japanese; CSJ) および現代日本語書き言葉均衡コーパス (Balanced Corpus of Contemporary Written Japanese; BCCWJ) について詳述する。また、自然会話特有の言語現象に関する既存研究について説明する。 ## 2.1 CSJ 日本語話し言葉コーパス $(\mathrm{CSJ})^{1)}[4]$ は、講演などの音声発話データを収集した大規模コーパスである。本データの一部に対し、文節間係り受け関係が付与されている [2]。CSJは自由対話のデータも含むが、係り受け関係の付与対象となっている発話データはコアデータに含まれる独話とテストセット2)のみである。 CSJでは、音声発話特有の現象について「自発的な話し言葉特有の現象として、<中略>、言い差し (言いやめ)、言い直し、言い換え、挿入構造、倒置、 ねじれなどの非流暢現象があげられる」と説明している [2]。フィラー、接続詞、感動詞、非言語音については、係り受け関係を付与せず、当該文節に対してそれぞれ個別のラベルを付与して区別している。言い直し・言い換えは他の係り受け関係と区別するラベルが付与されているが、言い直し・言い換えの種類については分類されていない。発話が途中で中断されるなど係り先がない場合は係り受け関係を付与せず、個別のラベルを付与している。 また、複数人の会話を対象としておらず、かつフォーマルな場での発話であるため、本研究が対象とする複数人の日常会話とは同じ音声発話であっても見られる現象に差があると考えられる。例えば、川田 [5] の CSJ のフィラー分析で説明されるように独話では対話よりフィラーが多く見られるという指摘がある。さらに、複数の参与者からなる会話では、話者交代によって生じる独話にはないインタラクションがある。例えば、ターン取りのために挟むフィラーや接続表現、他の参与者に邪魔されたため文末を持たないまま終了した発話文、発話文中に現  れる他の参与者に対する呼びかけや短い応答などが頻出する。これらはそれぞれ区別して分析をされるべき現象だが、既存の係り受け関係アノテーションでは明確に弁別できない。 ## 2.2 BCCWJ 現代日本語書き言葉均衡コーパス $(\mathrm{BCCWJ})^{3}{ }^{3}[6]$ は、出版物及びインターネット上の書き言葉を収集した大規模コーパスである。コアデータに対して文節間係り受け関係が付与されており、アノテーションガイドラインが整備されている [3]。CSJのアノテーションガイドラインをベースとしているが、 CSJ で区別されているフィラーや接続詞等は区別しない。フィラーや文末が省略されている場合など、 なんらかの理由で係り先がないあるいは認定しない文節は特別なノード ROOTを係り先として付与し、係り受け関係ラベル $\mathrm{F}$ を付与して通常の係り受け関係とは区別している。本研究では、本ガイドラインに基づいて付与された係り受け関係データを用いて分析を行う。 ## 2.3 自然会話特有の現象 ## 2.3.1 フィラー 川田 [5]によると、フィラーとは発話文に差し込まれる形で現れる、場繋ぎに使用される語で、概念的意味を持ち合わせない間投詞であるとされる。自然発話に現れることが古くから知られており、「談話における話し手の心的操作を表示するもの」であり「円滑な談話進行を可能にするもの」[7] として捉えられる。CSJ の転記基準においては、フィラー を「あー」「えー」「うーん」などと表記される類型パターンをもとに分類しフィラー表現をまとめており [8]、CEJCでもこれを採用している。よって本研究の対象データもこの基準によって認定されたフィラーを採用している。 ## 2.3.2 挿入 挿入とは、ある文の途中に別の文もしくは別の構造を持つ要素が挟まる現象を指す。日本語の発話における挿入表現については、丸山 [9] が CSJ のフォーマルな場での独話を対象として挿入の談話内での機能に注目した分析を行っているが、係り受け関係は区別されていない。また、ここで判断基準と  されている「挿入の前後に係り受け関係のある要素 (短単位)が存在すること」「文末表現が接続助詞で終わるものであること」については、日常会話においては必ずしも成り立たない。 ## 2.3.3 言い直しに類するもの 言い直しは、修復や不足の情報を補う目的で同義の語が繰り返されることである。言い換えは言い直しと同様の目的で、ほぼ同義であるが表層の違う語が当該部分の後ろに出現する現象である。これらは、同じ役割の語が一発話文に複数存在することになり文法構造を複雑にする一つの要因である。 丸山 [10] は言い直しと言い換えを言い直し表現として扱い、それらの機能的分析を行う中で構造を元に 5 種類のパターンに分類している。2.3.2節と同様に CSJ の独話を対象として使用しており対話における言い直し表現は今後の課題としている。 ## 3 データ概要 本研究では、形態論情報および文節間係り受け関係が付与された日本語日常会話コーパス (CEJC) コアデータ 52 会話のうち、200 発話文以上ある複数話者による日常会話 10 会話 5480 発話文を使用した。本データは現代日本語書き言葉均衡コーパス (BCCWJ) で用いられたアノテーションガイドライン [3] にもとづいており、通常の係り受けを表すラベル D と、フィラーなど係り受け関係を付与しないことを示すラベル F が付与されている。 本データに対し、本研究では以下の手順で分析およびアノテーションの修正・追加を行った。 1. 各会話データについて、各参与者の発話分をそれぞれ別ファイルに出力する(1 会話に 3 人の参与者がいれば、各々の発話のみが収められたファイルが 3 ファイルできる)。 2. 形態論情報を参照し、表 1 に示すラベル C, F, D, Int, Eを文節に付与する。 3. ラベル C が付与された文節について、 1 発話文中における係り受け関係を修正・追加する。 上記 3 では、アノテーション作業及び係り受け関係を可視化するツールとして brat) を使用した。 4) https://brat.nlplab.org/ 表 1 本研究で用いるラベルセット 文節に付与されるラベル & 468 \\ 図 1 発話文中に係り先がない例(ラベル $\mathrm{N}$ ) ## 4 係り受け関係ラベルの付与 本節では、BCCWJ のガイドライン [3] に基づく係り受け関係アノテーションでは区別できない自然会話特有の現象について分析を行い、係り受け関係ラベルを付与することでこれらを正確に表示する方法を述べる。本研究で用いる係り受け関係ラベルセットと、当該データにおける付与数を表 1 に示す。 ## 4.1 発話文中に係り先がない事例 自然会話では、当該の発話文外の要素に係り先が存在する、発話を途中で止めたことで係り先となる部分が消失する、といった理由によって当該発話文内に係り先がない事例がある(図 1)。BCCWJ の基準では、係り先がない文節は特別なノード ROOT を係り先とし、ラベル $\mathrm{F}$ を付与することで通常の係り受け関係と区別する。本研究では、当該発話文内に係り先がない場合は、便宜的に最右要素を係り先とし、ラベル $\mathrm{N}$ を付与する。これにより、通常の係り受け関係や後述する他の現象と区別されるため、構文構造や意味内容の分析を行う場合や、将来的に他の発話文内の係り先を認識する場合などにおいて要対応箇所として認定可能となる。 ## 4.2 係り先が不明確な事例 副詞「なんか」「まあ」「ちょっと」などについては、CSJ のフィラー類型一覧には入っておらず、 図 2 フィラー化した「なんか」(ラベル U) 図 3 文頭の接続表現(ラベル J) CEJC の形態論情報ではフィラーと認定されていない。しかし、これらが実質的にフィラーとして使用されている事例が見られる(図 2)。これは、「不確定な要素を述べる先行並行用法のようだが呼応する要素がはっきりしない例」、「一発話文に内に多発しフィラー化している『なんか』」 $[11,12]$ に相当すると考えられる。したがって、これらの表現が発話文の命題に実質的に寄与していないと判断される場合は、最右要素を係り先とし、他の係り受け関係と区別するためにラベル Uを付与する。 また、発話文の先頭におかれ、前後の発話文をつなぐ接続詞や接続助詞が頻出する(図 3)。これらは文と文とを自然に接続する役割を果たしていると考えられるため、その係り先は発話文の最右要素とする。ただし、自然会話においては文末が省略されるなど文が完成しない場合も多く、この場合当該接続詞・接続助詞は文法的には最右要素に係るわけではない。したがって、通常の係り受け関係と区別するため、この係り受け関係についてはラベル $\mathrm{J}$ を付与する。なお、CSJでは接続詞は係り受け付与対象外となっているが、本研究ではその他の接続詞については通常の係り受け関係を付与する。 図 4 挿入により係り先が消失する例(ラベル I) 表 2 丸山による言い直し 5 分類と本研究のラベル R1 発音誤り (語断片/発音ミス起因) 対象外 R2 単純な繰り返し (同一表層) RS-S R3 語の選択誤り(別表層の語句/助詞誤り RS-D を含む) R4 情報不足(新規の語が添加された同一 RS-S 表層) R5 別表現へ言い換え(同義の別表層の語 RS-D 句/カタカナ語の翻訳) 固有名や一般名詞を使用した呼びかけ(「お母さん」など)については係り先のない語として 4.1 節と同様にラベル $\mathrm{N}$ を付与する。 ## 4.3 挿入による係り先の消失 対象データにおいては、図 4 のように挿入部分で発話文が終わり、挿入文前に後続する発話が消失した例が見られる。これは挿入部の前と挿入部後に係り関係があるという丸山 [9] の定義には当てはまらないが、文法的な整合性を無視した発話部分が差し込まれており、挿入構造と判断するのが妥当と思われる現象が生じている。本研究では、その当該部分を除いても発話文全体の話脈に影響がない場合に当該部分を挿入部と同定し、後半部分がなくとも挿入構造と同等のものとして扱う。 また、この場合挿入部前の文節の係り先が失われているため、その係り先は最右要素とし、插入によって係り先が消失したことを示すためにラベル I を付与する。挿入された部分は、挿入部内での係り受け関係を付与するが、係り先がない場合は最右要素を係り先とし、関係ラベルは $\mathrm{N}$ とする。 ## 4.4 言い直し表現 係り受け関係を同定する際の言い直し表現の問題は、図 5, 図6でみられるように、発話文の命題において同じ役割をもつ要素が複数存在することである。対象データに置いても言い直し表現が多く見られる。これらの現象は、直前の発話が文法構造的に不完全な形で中断されること、中断後に同じ表層あるいは同義の語が発話されることから認定できる。本研究では、丸山 [10]による言い直しの分類にもとづき、言い直された語の表層が同一かどうかという基準で 3 パターンに分類して係り受け関係ラ 図 5 同じ表層の言い直し(ラベル RS-S) 図6 異なる表層の言い直し(ラベル RS-D) 図 7 言い差し・文末要素の省略の例(ラベル $\mathrm{N}$ ) ベルを付与した(表 2)。R1 は、係り受け付与対象が語断片となるため、3 節に基づき対象外とする。被言い直し部と言い直し部が同一の表層を含む R2, R4 の場合、被言い直し部と言い直し部の間にラべル RS-S を付与する。R3, R5 は、被言い直し部と言い直し部の間にラベル RS-Dを付与する。いずれの場合も、被言い直し部・言い直し部とその外との係り受け関係は、言い直し部に対して付与する。 ## 4.5 言い差し・文末要素の省略 言い差しおよび文末要素の省略における問題点は、文法的に不完全な中断により、係り先となる要素が消失していることである。これは 4.1 節と同様の現象であるとし、ラベル $\mathrm{N}$ を付与し、係り先は最右要素とした。 ## 5 まとめ 本研究では、日本語日常会話コーパスの発話文に対し、係り受け関係の付与を行った。特に、フィラーや言い直しなど、通常の係り受け関係とは異なるものや、係り先が存在しない場合など、自然会話特有の現象について分析を行い、これらを区別できるように係り受け関係ラベルを設計・付与した。現時点では、問題となる現象の同定とそれを区別する手法を策定した段階である。今後は、本手法に基づき効率的かつ高品質なアノテーションを行うためにアノテーションガイドラインを整備し、データを拡張する予定である。 謝辞本研究は国立国語研究所機関拠点型共同研究プロジェクト大規模日常会話コーパスに基づく話し言葉の多角的研究およびコーパス開発センター共同研究プロジェクトによるものです。 ## 参考文献 [1] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. 『日本語日常会話コーパス』モニター公開版コーパスの設計と特徴. 国立国語研究所「日常会話コーパス」プロジェクト報告書 $3,32019$. [2] 内元清貴, 丸山岳彦, 高梨克也, 井佐原均. 『日本語話し言葉コーパス』における係り受け構造付与。 [3] 浅原正幸, 松本裕治. 『現代日本語書き言葉均衡コー パス』に対する文節係り受け・並列構造アノテー ション. 自然言語処理, Vol. 25, No. 4, pp. 331-356, 2018. [4] 国立国語研究所. 『国立国語研究所報告書 124 日本語話し言葉コーパスの構築法』. 2006. [5] 川田拓也. 日本語フィラーの音声形式とその特徴について : 聞き手とのインタラクションの程度を指標として. PhD thesis, 京都大学, 2010. [6] 国立国語研究所コーパス開発センター. 現代日本語書き言葉均衡コーパス』利用の手引第 1.1 版. [7] 田窪行則, 定延利之. 談話における心的操作モニター 機構. 言語研究, Vol. 1995, No. 108, pp. 74-93, 1995. [8] 小磯花絵, 西川賢哉, 間淵洋子. 報告書『日本語話し言葉コーパスの構築法』,第二章転記テキスト. [9] 丸山岳彦. 『日本語話し言葉コーパス』に基づく挿入構造の機能的分析. 日本語文法, Vol. 14, No. 1, pp. 88-104, mar 2014. [10] 丸山岳彦. 『日本語話し言葉コーパス』に基づく言い直し表現の機能的分析. 日本語文法, Vol. 8, No. 2, pp. 121-139, sep 2008. [11] 鈴木佳奈. 会話における「なんか」の機能に関する一考察. 大阪大学言語文化学, No. 9, pp. 63-78, 2000. [12] 宮永愛子, 大浜るい子. 会話における「なんか」の働き一大学生による自由会話データを中心に. 表現研究, No. 91, pp. 30-40, mar 2010.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-4.pdf
# Extracting and Analyzing English Multi-word Expressions with Slots: A Case Study of 'take' Tomoyuki Tsuchiya Kyushu University tsuchiya@flc.kyushu-u.ac.jp ## 1 Introduction Multi-word expression (MWE) has been argued as one of the significant issues for large-scale natural language processing [1], and similar issues have also been coming into discussions in corpus linguistics and cognitive linguistics areas. Conventionalized expressions have been investigated from various aspects- syntactically, semantically and sociolinguistically for instance- and many terms have been applied to this linguistic phenomenon (ex. idioms, formulaic language, construction). One of these terms called 'construction' refers to a type of MWEs whose parts are not fully fixed. This paper discusses the theoretical issues of construction and reports the results of a preliminary investigation using a large-scale web corpus. Construction Grammar $(\mathrm{CxG})$ is a highly explanatory linguistic theory that aims to reveal the knowledge and productivity of human language based on the speakers' actual usage. CxG assumes conventionalized sequences of linguistic elements called construction and one or more empty slots in each construction to accept certain lexical items to fit in and generate speech with a certain level of productivity. The linguistic unit of construction can vary into several levels; word, morpheme, or other smaller units, and the level of abstraction of a slot can also vary; partof-speech, semantics, morphology, and grammatical level. Moreover, many constructions are conventionalized and shared in the language community with nonliteral meaning (ex. let alone in "Fred will not eat shrimp, let alone squid" from [2]). This paper investigates a method to extract constructions with slots with certain selection restrictions and word range that are linguistically objective from large-scale corpus data. ## 1.1 Constructions in Linguistics: A Frame and slots $\mathrm{CxG}$ aims to explain the productivity of language while maintaining the usage-based aspect of language. The collostructional analysis established by [3] uses a statistical method to investigate each lexical item's productivity that fits in the slot. The term 'collostruction' designates relatively more concrete expressions closer to collocation. ## 1.2 Remaining Issues of CxG and collostructional analysis ## 1.2.1 Frame Range of Constructions Methodologically, collostructional analysis focuses mainly on the type and collocational strength of collexemes but the definition of the starting and end points of each collocation is arbitrary. For instance, [3] conducted a case study of [ $X$ think nothing of $\left.V_{\text {gerund }}\right]$ and calculated the collocational strength of each collexeme. The word sequence of this study starts from the subject noun phrase as $\mathrm{X}$ and ends with gerund verb. [3] investigated this sequence since it appears in the dictionary and $\mathrm{V}_{\text {gerund }}$ slot has productivity to a certain extent, so designating $\mathrm{X}$ as the starting point and $\mathrm{V}$ slot as the end point of the sequence should be taken into consideration. ## 1.2.2 Slots of Constructions Moreover, the collocational strength indicates the productivity of the slots of a collostruction, however, the slots of the construction are also designated arbitrarily by the researchers themselves. For instance, $[X$ think nothing of $\left.V_{\text {gerund }}\right]$ has two empty slots; $\mathrm{X}$ and $\mathrm{V}_{\text {gerund }}$, but it is more or less possible that the word nothing can become a slot to form a more abstract construction $\left[X\right.$ think $Y$ of $\left.V_{\text {gerund }}\right]$. Figure 1 The concordance list of sequences start with take ## 1.2.3 Towards objective designation of the frame range and the slots By establishing an objective and simple method to extract constructions with productive slots, it would be possible to offer an index that contains useful constructions for language learners. ## 2 Data and Method ## 2.1 Data: EnTenTen Corpus [1] argue the lexical proliferation problem caused by light verb construction with examples; take a walk, take a hike, take a trip, and take a flight. In order to assess the plausibility of light verb constructions as MWE, this paper focuses on MWEs which starts from a light verb take. For collecting data, the EnTenTen 15 corpus was used in this study. EnTenTen15 corpus is an English web corpus, which collects text from the Internet. It contains 13 billion words, and the part-of-speech was tagged on each word by TreeTagger (version 3) using Penn Treebank tagset. ## 2.2 Method Using Corpus Query Language (CQL) in the Sketch Engine, expressions consist of 7 words and start from the light verb take was collected from the corpus. Any punctuations and symbols are not included in this word sequence. The first 10 million hits were used for the observation due to the Sketch Engine's system default. In most cases, this number is sufficiently representative, so random sampling was not applied in this data collection process. Subsequently, by counting the frequency of tokens with the Sketch Engine's frequency function, 8,950,602 tokens were found in total. In the counting process, any inflection of words (e.g. declension of nouns and conjugation of verbs) was ignored. From this frequency data, 57 patterns that have at least one slot were made for each token as Figure 2 The frequency list of tokens from the concordance table 1. Two or more adjacent slots were combined into one slot. For each pattern, type frequency ( $t \_f r e q$ ), total token frequencies (freq_sum), the mean of type frequencies (mean_freq), and the percentage of the most frequent token in the total token frequency (max_freq_perc) were calculated. Table 1 Slot generation patterns Finally, patterns that match the following three conditions were extracted from the pattern data; more than three types, more than 1,000 total token frequency, and the most frequent token accounts for more than 10 percent of the total token frequency. Though the constant of each condition above is provisional, it reflects the common characteristic of constructions. The first condition was set in order to extract constructions that have appropriate level of productivity. The second condition was set because constructions with a certain productivity should occur in a certain amount in language activities. The third condition was set since collocational analyses by [3] indicate the existence of a prototypical lexical item, which commonly fits in the slot. Regarding the procedue above, three types of data have been generated; the raw data which was collected from the actual corpus, the frequency tokens of the raw data, and the abstract patterns that generated from each token. The examples of each data type are as follows. 1. Raw data: ... film and exhibition will take place at The Lights in Andover on Tuesday 26. . . 2. Frequency token: take place at The Lights in An- dover, take place during break and over lunch, take time out of his busy schedule ## 3. Abstract pattern: patterns from take place at The Lights in Andover... - take ... at ... Andover, - take ... at ... in, - take ... at ... in Andover -... - take ... Andover patterns from take time out of his busy schedule... - take time ... of his busy schedule - take time out ... his busy schedule - take time out of ... busy schedule -... - take ... schedule ## 3 Results and their observation Consequently, there were 1,693 patterns that meet all of the conditions above. The examples of the extracted patterns are listed in table 3. Table 2 Basic statistics of the extracted patterns As shown in table 4, "take a ... of" has the most types among all patterns and appears the most in the corpus. Most patterns have a highly prototypical token, which account for more than $90 \%$ of the tokens appear with the pattern (ex. take a look ... some of the, take ... life ... its), but there are patterns whose prototypical token accounts for less than $90 \%$ (ex. on a life ... own, take ... law into ... own hand). The tokens appear in the pattern on a life ... own were take on a life fof its/their/his/her/all its/on its/on their\} own, and the tokens appear in the pattern take ... law into ... own hand were take \{the/immigration/international/federal/religious\} law into \{their/his/your/its/our/her/one/my/\} own hand. ## 4 Discussion and Conclusion As in table 4, the raw frequency of abstract patterns is higher compared to less abstract patterns. Abstract constructions appear in the corpus more frequently, but the selection restriction of their slots is loose, so various lexi- cal items are acceptable. Therefore, the type frequency of actual expression is higher and do not have a prototypical token. We can also estimate the end point of the construction by analyzing pattenrs that shares a common prototype token but have different endpoints. For example, among the patterns that share the prototypical token take away the sin of the world, the patterns which end with "world" have fewer types than ones that end with "the" in table 6. In terms of the conventionality of language, the patterns that end with "world" are more conventionalized and restrict the repertory of lexical items that fit in the remaining slots. The slot-ness of each pattern can be estimated by the number of types that appear in the token list. In table 5, for instance, "your ... to ... level" has 904 types in the token list, whereas "your ... the ... level" has approximately 200 types fewer than the former pattern. Though it is not statistically tested, we can estimate that the first pattern has more productive slots than the second one. This paper pointed out the theoretical difficulties of $\mathrm{CxG}$ in terms of the arbitrariness of the designation of the word range and slots and investigated an objective method to designate them by analysing the frequencies of word sequences which start from a light verb take. To extract constructions that are beneficial for English learning and create an index of it, the data shown in this paper should be observed in terms of their productivity. ## Acknowledgment This work was supported by JSPS KAKENHI Grant Numbers JP17KT0061 and JP17K17943. ## References [1] Ivan A Sag, Timothy Baldwin, Francis Bond, Ann Copestake, and Dan Flickinger. Multiword expressions: A pain in the neck for nlp. In International Conference on Intelligent Text Processing and Computational Linguistics, pp. 1-15. Springer, 2002. [2] Charles J Fillmore, Paul Kay, and Mary C. O’onnor. Regularity and idiomaticity in grammatical constructions: The case of let alone. Language, Vol. 64, No. 3, pp. 501-538, 1988. [3] Anatol Stefanowitsch and Stefan Th Gries. Collostructions: Investigating the interaction of words and constructions. International journal of corpus linguistics, Vol. 8, No. 2, pp. 209-243, 2003. Table 3 Pattern examples and basic statistics ( $15 \leq \mathrm{t}_{-}$freq $\left.\leq 17\right)$ Table 4 The list of patterns with the highest $t_{-}$freq frequency $\left(5,000 \leq t_{-} f r e q\right)$ Table 5 A group of patterns that share a common prototype Table 6 A group of patterns that share take away the sin of the world as the prototype ( $t_{-}$freq $\geq 30$ )
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-5.pdf
# ダッテのアノテーションとガイドライン 山口 文菜・鈴木 咲羅・徳永 理子・荒津 千晴・藤本 悠花(以上、九州大学文学部) 上山あゆみ (九州大学人文科学研究院) ## 1.はじめに ダッテという語は、『現代日本語書き言葉均衡コーパス』(BCCWJ)において1つの語彙素として登録されておらず、文字列検索を行うと、接続詞のダッテや取り立て詞としてのダッテのみならず、「断定の助動詞ダ十助詞ッテ」などの形で伝聞・引用や断定を表すものや、「めだって」や「いらだって」 のように動詞の一部に含まれているものも取り出される。コーパスにおける検索の有用性を高めるためには、これらが用法アノテーションによって適切に区別されていることが望ましい。そのためには、必要に応じて言語学的テストに基づいて分類のガイドラインを作成することが有用である。本発表では、ダッテのさまざまな用法について、分類ガイドラインを作成するにあたって、 どのような困難な点があったかを明らかにした上で、実際にアノテーションを試み、その結果を述べる。 ## 2. ダッテの分類ガイドライン まずここで、提案するガイドラインを示し、それぞれの分類について代表的な例文と分類の問題となりうる点を順に述べる。 また、以下で「取り立て詞」として述べるダッテは、接続詞や断定のダ十助詞ッテで構成されるダッテとは異なり、主に名詞句に接続して機能を持つダッテである。 \\ \\ ## 3. 代表的な例文と問題になりうる点 ## 3.1.「a.接続詞」について 「a.接続詞」の代表的な例文は以下の通りである。 (1) a.「牛乳プリン、食べないの?」 「だって、嫌いなんだもん」 [中西 2013:229(17)] (2) b. 「君も十分すごいよ。だって、 県で一位を取ったんでしょ」 [作例] この分類のダッテは、主に文頭において独立して現れる接続詞のダッテである。 ## 3.2.「b.伝聞・引用について」 「b.伝聞・引用」の代表的な例文は以下の通りである。 (3) a. どういう話?」「秋田の人が、製薬会社の懸賞に応募し て、テレビが当たったんだっ て」「すごい教」 (曾野綾子『極北の光』LBj9_00218) [中西 2013:229(16)] (4)b.「太郎も風邪ひいたんだって」 [作例] この分類のダッテは、断定の助動詞のダや形容動詞の語尾(優秀だ)、動詞の夕形(飲んだ)等の、「断定を表すダ+助詞ッテ」で構成されるダッテの内、直前の内容が他者の意見や行動について述べているものである。 ## 3.3.「c.断定」について 「c.断定」の代表的な例文は以下の通りである。 (5) a. 私は今が一番幸せだって思う。 [作例] b. 彼が芸能人だってことを初めて知った。[作例] この分類のダッテは、「b.伝聞・引用」に対して、断定のダ十助詞ッテで構成されるダッテの内、直前の内容が話し手(動作主)自身の意見や判断、あるいは客観的な事実を述べているものである。 3.4.「d.フレーズの一部」について 「d.フレーズの一部」の代表的な例文は以下の通りである。 (6) a. そんなことはどうだっていい。 [作例] b.「なんだって!?」[作例] この分類のダッテは、「どうだって」という形や、取り立て詞である「e.疑問代名詞 + ダッテ」とは異なり、疑問や聞き返しの意味合いが強い「疑問代名詞十ダッテ」の形で表れる。この場合のダッテはデモと置き換えることができない。 また、「どうだって」に関しては、デモと置き換えることは可能である。しかし、取り立て詞は主に名詞句に接続して機能を持つものであり、疑問副詞である「どう」に接続 するダッテは取り立て詞に相応しくない。 また「どうだっていい」といった慣用句的なフレーズで表れることが多いため、取り立て詞のダッテからは除外して考えることとした。 ## 3.5.「e.疑問代名詞+ダッテ」について $\lceil\mathrm{e}$.疑問代名詞 + ダッテ」の代表的な例文は以下の通りである。 (7) a. どんな人だって構いません。 [丹羽 1995:490(1a)] b. いつだって行けます。 [平川 2020:3(4b)] この分類のダッテは、「d.フレーズの一部」 に分類される疑問代名詞十ダッテとは異なり、ダッテをデモと置き換えることができ、 それによって全称を意味する。 ## 3.6.「f.意外」について 「f.意外」の代表的な例文は以下の通りである。 (8) a. 大雨だって必ず行きます。 [中西 2013:228(7)] b. この辛さにはインド人だってびっくりした。[中西 2013:228(8)] この分類のダッテは、デモと置き換えられる、かつダッテを含む 1 文が社会通念に反することを例示し、その意外性を強調する、という機能を持つものである。 平川(2020)においては、この分類はタトエを補らことのできる「譲歩」と過去の出来事に対して意外性を強調する「意外」の 2 つに分類されていた。しかし、これらの用法が 「常識として考えられる帰結に反することを例示し、その意外性を強調している」という特徴で一致しており、また、平川(2020)に おける「意外」の分類基準として設けられていたサエ・スラと置き換えられる、という特脚は必ずしも過去の出来事に対してのみ当てはまるものではない。そのため、中西 (2013)においてデモと置き換えられるダッテを「肯定的用法」として分類していたことから、その分類基準を踏襲し、「f.意外」として設定した。 ## 3.7.「g.最低限」について $「 \mathrm{~g}$.最低限」の代表的な例文は以下の通りである。 (9) a. 5 分だってかからないだろう。 [平川 2020:5(10b)] b. コーヒーが好きなので、いつもは朝起きるとすぐコーヒーが飲みたくなる。しかし、今朝は腹痛で好きなコーヒーだって全然飲みたくなかった。 [cf. 中西 2013:234(35)] c. 少しのことでは動じない太郎だが、その事件を聞くとさすがの太郎だって驚いた。[作例] まず、「数量詞十否定辞と共起する」という特徴については、平川(2020)における「最低限」の用法を踏襲している。しかし、この条件のみではコーパスにおける例文がほとんど見られず、また平川(2020)におけるフロ一チャートでは「譲歩」や「意外」に分類される例文の中にも、話し手が最低限の意味合いを持って発言していると思われる例文が存在した。そのため、「ダッテが接続する名詞が動作主(対象物)となる可能性が最も低いと主観的に判断している」と文脈上で判断される例文についても「g.最低限」に分類することにした。 ## 3.8. 「h. 可能性」について $\lceil h$. 可能性」の代表的な例文は以下の通りである。 (10) a. クマに襲われることだってあるかもしれない。[作例] b. 四十本だって十分狙えるバッタ 一ですよ、松井は。 [cf. 平川 2020:14(46)] この分類のダッテは、サエ・スラと置き換えられるものであり、稀に起こりうる事態を例示するものである。「f.意外」や「g.最低限」と比較すると、主に「〜すること」といった事態を取り立てる場合が多い、という特徴がある。 ## 3.9. 「i.同類」について 「i.同類」の代表的な例文は以下の通りである。 a. 太郎が来た。次郎も来た。三郎だつて来た。[丹羽 1995:491(4a)] b. 男だって女だっていいじゃない。[丹羽 1995:490(1b)] c. カエルだって、生きているんだ。意味もなく殺しちやいけない。[中西 2013:228,(5)] この分類のダッテは、モマタと置き換えられる、あるいは取り立てる名詞と同様の事柄が列挙されている場合に、取り立てる対象が類似事態と同様の性質を持つことを示す。 ## 3.10. 「j.主題提示」について $\lceil\mathrm{j}$.主題提示」の代表的な例文は以下の通りである。 (12) a. あんなことを言われれば、腹だ つて立つよ。 [中西 2013:228(10)] b. 太郎だって成人したことだし、 そろそろゆっくりしてもいいだ万うか。[平川 2020:9(19b)] この分類のダッテは、取り立てる名詞に対して何らかの意味を付加する、というよりは、単に話の主題を提示する役割を持つ。 ## 3.11. 分類の問題点 本発表における分類では、前後との接続などから見てとれる、形式的な側面から見た客観的な分類基準ではなく、分類主の主観的な判断による分類基準が多い。特に「私だってびっくりした。」など、人を取り立てている場合に、「もまた」と置き換えて「i.同類」とするか、文脈を読んで「g.最低限」 とするかで、分類主によって判断が分かれる場合がある。AIではなく人間が分類するメリットとして、このような主観的な判断に委ねる分類基準を設けたが、文脈等によって分類の結果に差が出る場合がある。 ## 4. アノテーション結果 『現代日本語書き言葉均衡コーパス』 (BCCWJ)から、ダッテを含んだ例文 500 件を抽出し、その中から「めだっている」 「いらだっている」等の動詞の一部である例文を除いた 487 件について、九州大学文学部の学生 2 人でアノテーションを行った。 その結果からカッパ値を算出したところ、 0.769 となった。アノテータ間でぶれの少ない、ある程度信頼性のあるガイドラインが作成できたことになる。 ## 5. 参照文献 井島正博(2007)「サエ・マデ・デモ・ダッテの機能と構造」,『日本語学論集』, 3:4582. 中西久実子(2013)「とりたて助詞「でも」で言い換えられない「だって」」,『研究論叢』, 82:227-239. 丹羽哲也(1995)「「さえ」「でも」「だって」 について」,『人文学研究大阪市立大学文学部紀要』,47:473-499. 平川絢瑚(2020)「とりたて詞ダッテの機能と 用法分類」, 卒業論文, 九州大学.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-6.pdf
# 助詞クライのアノテーションとそのガイドライン 本田優月・池美礼・上野聡子・小林宙夢・佐伯大地(九州大学文学部) 上山あゆみ (九州大学大学院人文科学研究院) ## 1. はじめに クライという語は、程度、あるいは低評価の意を表すとされるが、実際の用法は多岐にわたる。コーパスによる検索の有用性を高めるためには、これらの用法の違いがアノテーションによって適切に区別されていることが望ましい。そのためには、益岡・田漄(1992)、森田(2002)、落合(2017) 等で主張されてきたように、必要に応じて言語学的テストを行い、分類のガイドラインを作成することが必要である。本発表では、クライの様々な用法について分類ガイドラインを作成するにあたって、どのような困難な点があったかを明らかにした上で、実際にアノテーシヨンを試み、その結果を述べる。 ## 2. クライの分類 まずここで、提案するガイドラインを示し、それぞれの分類について、代表的な例文と分類の問題となりうる点を順に述べる。 \\ \\ } & \\ ## 3. 代表的な例文と問題となりうる点 ## 3.1.「(1) : 同程度」について 「(1): 同程度」の代表的な例文は、次に示す通りである。 (1) a. 毎日僕が起きるのと同じクライに父は仕事へと出かけていく。[落合 2017: 16,(19a)] b. 私は太郎と同じクライの身長だ。 (1) のように、「同じクライ」の形をとるものは(1): 同程度」に分類される。 益岡・田窪(1992)や落合(2017)においては、「同程度」の用法は存在しておらず、「程度」としてまとめられている。しかし、「程度」の分類が広範にわたっており異なる意味を表すものが混ざっているという点から、より細分化し、「(1): 同程度」及び後述する各種分類を新たに設定することとした。 ## 3.2.「(2) : 疑問」について 「(2): 疑問」の代表的な例文は、次に示す通りである。 (2) a. どれぐらい金が必要なのかね? (氾監) [朱 2010: 100,(12)] b. 集合時間は何時クライがいいですか。 (2)のように、クライが疑問詞に接続して いる場合は、「(2): 疑問」に分類される。主な疑問詞としては、「何」、「どれ」、「いつ」、「どの」などが挙げられる。 ## 3.3.「(3) : 概数」について 「(3) : 概数」の代表的な例文は、次に示す通りである。 (3) a. この講義は、 100 人クライの生徒が受講している。 b. 太郎は回転ずしを十皿くらい食べた。 [井島 2008: 45, (6b)] (3)のように、クライの直前が数字+助数詞もしくは「倍」「半分」であり、かつ「約、 だいたい、およそ」などのおおよその数を表す副詞を補える場合が、「(3): 概数」に分類される。ただし、クライを「頃」に置き換えられる場合には、後述する「(4):時点の曖昧さ」に分類する。 ## 3.4.「(4): 時点の曖昧さ」について 「(4) : 時点の曖昧さ」の代表的な例文は、次に示す通りである。 (4) a. 10 時クライになったら、私のところに来て。 b. 例年 4 月第 1 週クライに、ここの桜は満開になる。 (5) a. 10 時頃になったら、私のところに来て。 b. 例年 4 月第 1 週頃に、ここの桜は満開になる。 (4)のように、クライが前部に示された時点を曖昧にぼかしている場合、「(4): 時点の曖昧さ」に分類される。この用法では、 (5)のように、クライを「頃」に置き換えることが可能である。「(3): 概数」と類似しているが、対象が時期・時点であるという点で異なっている。 3.5.「(5) : 程度の例示」について 「(5): 程度の例示」の代表的な例文は、次に示す通りである。 (6)[指示詞十クライ]屈まないと頭が壁にぶつかってしまう。兄は、そのクライ背が高いのだ。 (7)[年齢を表す語十クライ]君は大学生クライに見える。 (8) [クライ+「の」+スケール名詞] この店のハンバーグは、握りこぶしクライの大きさだ。 (9) a. コップに、ひたひたになるクライまで水を注ぐ。 b. さっと焼き目がつくぐらいで火を止めます。[丹波 1992: 97 (10a)] (6)のように指示詞十クライの形をとる場合、(7)のようにクライが大きさや年齢を表す語に後接している場合、(8)のようにクライに「大きさ」や「速さ」などのスケ一ル名詞が後接している場合、また、それ以外でも(9)のように物事の程度や度合いを例を用いて説明している場合には、「(5) : 程度の例示」に分類される。 ## 3.6. 「(6) : 低評価」について 「(6) : 低評価」の代表的な例文は、次に示す通りである。 (10)a. 少しクライ勉強しなさい。 b. お米を炊くクライ私にもできます。[落合 2017: 15 (39a)] c. せめて、基本的なルールくらい守ってほしい。 [益岡・田窪 1992: 154, (84)] (10)のように「少しクライ」の形をとる場合や、クライ直前の要素を明らかに低く評価している場合、「(6): 低評価」に分類する。この分類については、次節 3.7 でも改めて説明する。 ## 3.7. 「(7) : 嫌悪」について 「7) : 嫌悪」の代表的な例文は、次に示す通りである。 (11)a. 君が班長をするクライなら、僕が班長をする。 b. 現金で支払うクライなら、何も買わない。 c. 汗で濡れるクライなら雨に濡れるほうがましだ。[落合 2017 (40a)] 「7) : 嫌悪」は、「クライなら」、もしくは「クライだったら」という構文が用いられるが、「(6)低評価」に分類されるクライにも、(12)のように、同じ形で表れるものがある。 (12) [低評価] 五分遅れるクライなら許そう。 (13) [嫌悪] 現金で支払うクライなら、何も買わない。 しかし、(12)とは異なり(13)では、「現金で支払う」という行動を避けた上で、「何も買わない」というプロセスが生じている。このような、「Aクライなら B」といった形をとり、クライの前部を嫌悪した上で後部を選択するような場合に、「(7):嫌覀」に分類する。落合(2017)では、「軽視」「嫌悪」「控えめ」という若干の意味の違いを認識していたものの、それらを 「低評価」という一つの分類にまとめていた。我々の作成したガイドラインでは、落合の指摘する「低評価」を、「(6): 低評価」と「(7): 嫌覀」に分けたので、より細かい意味合いの判別が可能となる。 ## 3.8. 「8): 限定」について 「8 : 限定」の代表的な例文は、次に示すとおりである。 (14) a. 私にできることと言えば、せいぜいお祝いするくらいだ。 [星野 2014: 28 (19)] b. 彼は今月仕事に追われていて、休めるのは明日クライだ。 [落合 2017: 18 (44a)] 先に示した (1)~(7)の分類に当てはまらず、かつクライを「ダケ」に置き換え可能な場合のうち、クライの直前の要素を低く評価していない場合に、「8): 限定」 に分類される。なお、この際に低く評価していると判断される場合には、「6): 低評価」に分類される。 3.9.「(9) : 客観的事実による程度の高さの説明」について 「(9) : 客観的事実による程度の高さの説明」の代表的な例文は次の通りである。 (15)a. 雲一つないクライ晴れ渡った青空だ。 b. あの太郎が笑うクライだから、相当面白い話だったのだろう。 先に示した(1)~(8)の分類に当てはまらないもののなかで、クライを「ホド」と置き換え可能であり、クライの前部で客観的事実を提示し、クライの後部の事柄の程度の高さを表す場合に、「(9) : 客観的事実による程度の高さの説明」に分類される。 3.10.「(10): 主体の感覚による程度の高さの説明」について 「10 : 主体の感覚による程度の高さの説明」の代表的な例文は、次の通りである。 (16)a 感心するクライ仕事熱心な人だ。 [落合 2017: 12,(36)] b 君の気持は痛いくらいわかる。 [須川 2006:2,(7b)] c「目に入れても痛くない」と思う クライ、我が子は可愛いもので す。[落合 2017: 11, (25a)] 先に示した(1)~(8)の分類に当てはまらないもののなかで、クライを「ホド」と置き換え可能であり、クライの前部で主体の感覚を提示し、クライの後部の事柄の程度を表す場合に、「10:主体の感覚による程度の高さの説明」に分類される。 「9) : 客観的事実による程度の高さの説明」との違いは、クライの前部に置かれているものが、第三者が何かをしたというような事実ではなく、あくまで話し手(あ) るいは書き手)がクライ後部の事象をどう受け止めるかという感覚や印象であるという点である。例えば、 $(15 b) て ゙ 「 太$ 郎が笑った」というのは事実であるが、(16a) で「感心するくらい」は誰かが感心していたという事実ではなく、主体自身が感心したことを表している。 ## 4. アノテーション結果 『現代日本語書き言葉均衡コーパス』 (BCCWJ) から、クライを含んだ例文 500 件を抽出し、その中から、名詞の「位」と動詞の「くらう」の連用形「くらい」を除いた例文 498 件について、上記の分類ガイドラインにしたがって、実際にアノテ ーションを行った。 九州大学文学部の学生 2 人がそれぞれアノテーションを行い、その結果からカッパ値を計算したところ、約 0.68 となった。アノテータ間でぶれの少ない、ある程度信頼性のあるガイドラインが作成できたことになる。今後、ずれの見られるところを中心に、更に検討を重ねていきたい。 ## 5. 参照文献 井島正博 (2008)「クライ・ホド・ナンカ・ ナンカ・ナンテの機能と構造」,『日本語学論集』, 4: 42-97. 落合里紗 (2017)『副助詞クライの機能と用法』, 卒業論文, 九州大学. 朱武平 (2010)「「くらい(ぐらい)」の分布 と意味の構文論的考察」, 『千葉大学人文社会科学研究』, 20: 99-110, 千葉: 千葉大学大学院人文社会科学研究科. 須川友美 (2006)『日本語の程度をあらわ寸助詞に) ついて: ホド・クライの意味 と用法』, 卒業論文, 九州大学. 丹羽哲也 (1992)「副助詞における程度と取り立て」,『人文研究: 大阪市立大学大学院文学研究科紀要』,44 (13): 11151150, 大阪: 大阪市立大学文学部. 星野佳之 (2014)「クライの諸形式の整理: 「暫定抽出」の副助詞、名詞化辞、助動詞」,『ノートルダム清心女子大学紀要. 外国語 - 外国文学編,文化学編,日本語・日本文学編』,38(1): 25-37, 岡山: ノートルダム清心女子大学文学部. 益岡隆志・田窪行則 (1992)『基礎日本語文法一改訂版一』, 東京: くろしお出版.森田良行 (2007)『助詞・助動詞の辞典』,東京: 東京堂出版.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-7.pdf
# マデダ文のガイドラインとアノテーション 勘場千夏 ・毛谷村詩織・是枝美羽・立花千夏 ・米㟢俊太(九州大学文学部) 上山あゆみ (九州大学大学院人文科学研究院) ## 1.はじめに マデダという語はマデに語彙素「ダ」が続いたものである。寺村(1991)や沼田 (1992)をはじめとして、「マデ」の用法に関する研究はなされてきたが、古川 (2020)においては、動詞に後続するマデに「ダ」が続いた場合の用法についての分類案が提示された。これを受けて我々は、名詞や動詞に後続するマデダの用法についてより全般的で有用性のある分類が作れるのではないかと考えた。本発表では、 マデに語彙素が続いたものの用法についての分類ガイドラインを作成するにあたってどのような困難な点があったかを、代表的な例文を説明しつつ明らかにしたのち、作成したガイドラインに沿って『現代日本語書き言葉均衡コーパス』 (BCCWJ)によってアノテーションを試みた結果について述べる。 ## 2.マデダの分類ガイドライン まずここで、提案する分類ガイドラインを示し、それぞれの分類について、代表的な例文を述べる。 & \\ & \\ ## 3.代表的な例文 以下、記載のない例文はすべて『現代日本語書き言葉均衡コーパス』(BCCWJ)からの引用とする。 3.1.「(1) : 動作の到達点」について 「(1): 動作の到達点」の代表的な例文は、次に示すとおりである。 (1)飛行機に乗るのは東京までだ。[作例] 動作が終了する場所を表しているマデダ文がこの用法に含まれる。(1)では、飛行機に乗るという動作の終了点が東京であると示されている。 ## 3.2.「(2) : 範囲の終点」について 「(2): 範囲の終点」の代表的な例文は、次に示すとおりである。 (2) a. 整理券は一人 3 枚までだ。 b. 情熱も努力も 0 から 100 までだ。[作例] この用法では物事や空間の範囲を表す。 また、(2b)のように、「カカラ〜マデ」という形で用いられやすい。 ## 3.3.「(3) : 時間の終点」について 「(3): 時間の終点」の代表的な例文は、次に示すとおりである。 (3) a. 午後 5 時までに課題を終わらせる。[作例] b. 親が熱心に教育するのは、子供が大学進学を実現するまでである。 [作例] (3b)のように、マデの直前が動詞の場合、動詞の後ろに「時」を補うことができる。 「時間の終点」は、古川(2020)の「時点の限界」をもとに作成したが動詞に接続するマデダ文だけでなく、時間的な範囲を限定するマデダ文はすべて含むという点で違いがある。 ## 3.4.「(4): 行為の限界」について 「(4): 行為の限界」の代表的な例文は、次に示すとおりである。 (4) 山仕事というのは木を植え育て、伐って丸太にするまでだ。[作例] (4)では、山仕事という行為は木を植え育てて、伐って丸太にするところまでという限界を表している。 3.5.「(5) : 意外な程度」について 「(5): 意外な程度」の代表的な例文は、次に示すとおりである。 (5)親に会うまでだから彼女との付き合いは遊びのはずがない。[作例] (5)では、彼女との付き合いという状況において親に会う程度という指標を示している。また、この用法ではマデダをホドやクライに置き換えることが可能である。 ## 3.6.「(6) : 決意選択」について 「6 : 決意選択」の代表的な例文は、次に示すとおりである。 (6)あなたが何もしないのなら私がするまでだ。[作例] (6)では、自分のこれからする行為を選択している。この例文のようにこの用法では条件節が伴う場合が多い。 ## 3.7.「(7) : 限定」について 「(7) : 限定」の代表的な例文は、次に示すとおりである。 (7) a. 自分は指示に従ったまでだ。[作例] b. 用事は終わったので、あとは歩いて帰るまでだ。[作例] (7a)と (7b)ではどちらも行為に対して自分の意思表示は含まれておらず、マデの直前を客観的に限定している。また同じくどちらの例文もマデをダケに置き換えても文意が通る。 ## 3.8.「8:慣用句的表現」について 「8): 慣用句的表現」の代表的な例文は、次に示すとおりである。 (8) a. もう、これまでだ。 b. そういう運命になってしまったと言われればそれまでだ。[作例] 指示語に接続するマデダ文で接続する指示語が具体的な物事に置き換え不可能である時にこの用法となる。 ## 4.アノテーション結果 『現代日本語書き言葉均衡コーパス』 (BCCWJ)から、「マデ」に語彙素「ダ」 が後続する形を含んだ例文500件を抽出し、上記の分類ガイドラインにしたがって実際にアノテーションを行った。 九州大学文学部の学生 2 人がそれぞれアノテーションを行い、その結果から力ッパ値を計算したところ、0.785という値を得ることができた。ぶれの少ないある程度信頼性のあるガイドラインを作成することができたことになる。これからぶれのあった箇所を中心に、さらに検討を重ねていきたい。 ## 5.参照文献 小西正人(2019)「増分タイプのマデ文について」『北海道文教大学論集』第 20 号,117 寺村秀夫(1991)「取り立て一係と結びのム ード」『日本語のシンタクスと意味III』第 3 巻, 東京 : くろしお出版沼田善子(1992)『「も」「だけ」「さえ」 など : とりたて』, 日本語文法セルフ・ マスターシリーズ 5 . 東京 : くろしお出版 沼田善子(2000)「とりたて」『日本語の文法 2 時・否定と取り立て』東京: 岩波書店. 153-216 古川佳穂(2020)「動詞に後続するマデダの意味と分類」卒業論文,九州大学 薮崎淳子(2016)「マデの諸用法の相関関係」 『國學院雑誌』第 117 巻第四号
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-8.pdf
# 日本語の論文コーパスにおける「問題」の語義アノテーション 平林 照雄 茨城大学理工学研究科 20nd303t@vc.ibaraki.ac.jp 古宮 嘉那子 茨城大学理工学研究科 kanako.komiya.nlp@vc.ibaraki.ac.jp ## 1 はじめに 学術論文において、主題は問題解決プロセスであることが多い。また、問題を明示するため、「問題」 をはじめとする特徴語が、同一文または、周辺文に存在すると予想される。従って、「問題」のような特徵語から、その問題内容を情報抽出するタスクを考えることができる。Heffernan ら [1] は英語科学論文からパターン抽出を利用して “problem” に注目した情報抽出を行った。しかし、日本語においては、「問題は〜である。」と明記されていることは稀であり、パターン抽出による情報抽出手法をとることが難しい。また、「問題」は多義語であるから、語義曖昧性解消を行う必要がある。 本研究では、科学論文の問題解決プロセスにおける問題内容を特徴語から情報抽出を行う準備として、「問題」の語義タグ付きコーパスの作成を行う。 さらに、作成したコーパスを用いて自己学習によるコーパスの増補を行う。 ## 2 関連研究 Heffernan ら [1] は、“problem”とその類義語を利用した情報抽出により、英語科学論文から問題提起箇所を含む「問題内容」と「解決法」コーパスを作成し、さらに、文中に「問題内容」または「解決法」を含むか否かという分類を行った。同論文で Heffernan らは、"problem" は "problematic" と "task" の二つの意味を持ち、問題解決プロセスにおいては、“problematic”の意味の "problem” のみが対象になるとしており、この意味の “problem”を抽出するにあたり、機械的にパターン抽出を行った後で、問題提起を行わない文を人手で除外している。 本研究では、Heffernan ら [1] の研究に倣い、日本 \author{ 河野慎司 \\ 茨城大学理工学研究科 \\ 20nm709n@vc.ibaraki.ac.jp \\ 新納浩幸 \\ 茨城大学理工学研究科 \\ hiroyuki.shinnou.0828@vc.ibaraki.ac.jp } 語の「問題内容」と「解決法」を抽出することを目的とし、その準備として、日本語論文コーパス中の 「問題」の語義曖昧性解消を行う。 日本語のコーパスに語義タグを付与する研究は多く、Shirai ら [2] や Okumura ら [3] の研究がある。 Shirai ら [2]は、『岩波国語辞典』に基づいた語義タグを新聞コーパスに付与している。さらに、Okumura ら [3] は Shirai ら [2] と同様の語義タグを『現代日本語書き言葉均衡コーパス』[4]に付与した。また、語義曖昧性解消のタスクにおいて、対象単語の周辺単語を用いることは一般的である。例えば、Komiya ら [5] は、多義語の周辺に現れる語義の分布を利用する周辺語義モデルを提案している。自己学習を語義曖昧性解消に用いる手法も一般的である。Yarowsky ら [6] らや鈴木ら [7] は、教師なし学習による語義曖昧性解消の精度向上のため、ブートストラップ法による自己学習を行った。 ## 3 提案手法 本研究では、初めに、「問題」の語義のアノテー ションルールを定め、人手によるタグ付けを行った。次に、作成した語義タグ付きコーパスをもとに分類器を学習し、平文コーパスに適用することで語義タグ付きコーパスの増補を行った。 ## 3.1 「問題」の語義 Heffernan ら [1] は “problem” の多義性について指摘したが、筆者らは日本語の「問題」も同様の多義性を持ち、さらに同様の語義を含むと考えた。 『岩波国語辞典』によると、「問題」は表 1 のように定義されている。問題解決プロセスの際に使用される「問題」の意味は<1><イ>の意味をとる。この意味を先行研究に合わせ、“problematic” の意味と 呼ぶ。また先行研究で主張された “task” の意味は 「問題」<1><ア>の意味に相当する。同様に先行研究に合わせ “task” の意味と呼ぶ。そこで、「問題」 の語義のアノテーションルールを作成する際には、 “problematic” の意味と “task” の意味の意味決定に重点を置いた。 ## 3.2 アノテーションルール 「問題」という単語を含む一文内の情報によって 「問題」が “task","problematic", “non-problematic"(後述の第一ルールで定義を示す), 「それ以外」のいずれかを判定するアノテーションルールを作成した。また、各ルールは原則第一ルールから順番に適用を行うが、第十ルールのみ、アノテーションルールの策定後に追加で作成されたルールである。そのため、作業時には、例外的にルールの適用の優先度を高くしてほしいと作業者に説明を行った。作業者は自然言語処理を専門とする学生である。 ## 第一ルール 「〜は問題でない」「〜は問題にならない」等を含む文の「問題」は “non-problematic”判定を行う。 これらを含む文の周辺文に問題に対する解決法が期待されないため設定した。 ## 第ニルール 固有表現を含む「問題」に対しては、固有表現を含む内容であることを明記し、可能であるならば "problematic"、"task”の判定を行う。 第二ルールが適用される文では、専門的な内容が多く、しばしば作業者の知識を必要とするため固有表現が適用されることを明示した後、判断不可とすることを許した。例としては、「ゼロ頻度【問題】」 などがあげられる。 ## 第三ルール 「問題点」中の「問題」、または「問題」を「問題点」に置換可能である際、“problematic”判定を行う。 タグ付けの際に本ルールが適用された文を以下に示す。 文書連想検索を実現する際の【問題】点は,類似文書の検索に時間がかかることである。 ## 第四ルール 研究課題の「問題」である際、“task”判定を行う。 このルールにより付与された “task” は、後述する第八ルールでの “problematic task”が頻出することに留意する。 タグ付けの際に本ルールが適用された文を以下に示す。 本研究は,一つの用語から,それに関連する用語集合を収集するという【問題】を扱っている. ## 第五ルール 実験・研究中に発生した又は考えられる「問題」 である際、“problematic”判定を行う。 タグ付けの際に本ルールが適用された文を以下に示す。 また、ある文書空間内での共起情報を用いれば関連度を計算可能と思われるが,どのような文書空間を用いるべきかが【問題】となる. ## 第六ルール 解答を求める問いや、試験などの問い、「問い」と置換できる「問題」である際、“task”判定を行う。 例としては、「数学の【問題】を解く。」や、「入試【問題】」があげられる。 ## 第七ルール 「疑問点」と置換可能である場合、“task” 判定を行う。「困難」と置換可能である場合、“problematic”判定を行う。 ## 第八ルール これまでのルール内で “task”判定を行ったもののうち、“problematic" の意味を持つ "problematic task" の場合、“problematic”判定を行う。 “problematic task” は作業者の判断が最も摇れる例である。 タグ付けの際に本ルールが適用された文を以下に示す。 また,英語は他の欧州諸言語と比較して,性・数・格に応じた活用などが簡略化された言語として有名であり,語形から統語情報が失われることで発生する曖昧性の【問題】もある. ## 第九ルール 一文以上の文脈を見ないと決められないものは 「それ以外」判定を行う。 ## 第十ルール 「対処する」「対処される」又は「解消する」、「解消される」等の「問題」は “problematic”判定を行う。 タグ付けの際に本ルールが適用された文を以下に示す。 この【問題】に対処するための手法がいくつか提案されている。 ## 3.3 アノテーション実施方法 作成したアノテーションガイドラインを作業者に周知し、人手でタグ付けを行う。この時、作業者 2 名一組で判定を比較する。判定が一致する場合、正解データとしてタグ付けを行う。一致しない場合、 どちらの判定が正しいかの最終判断は、筆者が実際にタグ付けを行う文を確認し行った。 ## 4 実験 タグ付けを行う対象コーパスは、『言語処理学会論文誌 LaTeX コーパス』1)を用いた。人手による夕  グの付与数及び、 $\kappa$ 值を表 2 に示す。ただし、 11 人の作業者にアノテーションを依頼し、2人 1 組ずつ評価を行ったため、ランダムに作業者を疑似的な作業者 A と B 割り振り、疑似的な作業者 $\mathrm{A}$ と $\mathrm{m}$ 間のK値を求めている。コーパス増補後のタグの付与数を表 3 に示す。 コーパスの増補に用いた分類器は線形のSVMを用いる。素性として、周辺 3 単語に対象の「問題」 を含む、 7 単語を新納ら [8] が作成した短単位分散表現辞書 NWJC2vec を用いて分散表現化し、連結したものを使用する。 ## 5 コーパスの評価 人手により作成された語義タグ付きコーパスから学習した分類器と、コーパス増補後の語義タグ付きコーパスから学習した分類器を、Okumura ら [3] が 『岩波国語辞典』の語義タグを『現代日本語書き言葉均衡コーパス』[4] に付与したコーパスに適用することで、精度評価を行う。 ## 5.1 実験設定 評価に用いる文は、『岩波国語辞典』の語義夕グが付与された「問題」のうち、対応が取れている “problematic”と “task” に対応する語義のみを使用した。また、評価用コーパスが “problematic”と “task” の正解データのみを持つため、"problematic" と“task” のタグが付与された文のみを用いて分類器の学習を行った。分類器の素性及びアルゴリズムはコーパスの増補と同様のものを使用する。実際に評価に使用した「問題」のアノテーション数を表 4 に示す。 ## 5.2 実験結果 学習した分類器のそれぞれの精度を表 5 に示す。 表 5 各分類器の精度 人手コーパスから学習した分類器増補後のコーパスから学習した分類器 0.696 0.713 ## 6 考察 表 5 の結果から、精度が高いが少量のコーパスである人手コーパスから学習した分類器が、自己学習の結果によって、精度の高い分類器を作成できた。 このことから、自己学習が効果的であることがわかった。 作成したアノテーションルールは、できる限り作業者による差異が少ないルールの作成に努めたが、第八ルールの “problematic task” の判断については作業者がその“task”を“problematic”、つまり「解決すべきこと」と考えるか、に依存しており、作業者による判断の差異が生まれやすい。 コーパスの評価のため用意した『岩波国語辞典』 の語義タグが付与された「問題」は、“problematic” の語義が多く、「問題」の語義を単純に “problematic” と分類する分類器が強力である。そこで、評価に用いた「問題」のうち、“problematic” と “task” の語義をそれぞれランダムに 10 文ずつ選択した合計 20 文に対して、評価で作成した分類器を適用する追加実験を行った。この時の分類器の精度を表 6 に示す。分類器の精度は実験毎に変化するため、2000 回試行し、平均をとった。表 6 より、増補後のコーパスか 表 6 追加実験における各分類器の精度 ら作成された分類器はランダムよりわずかに良いことがわかった。 コーパスの増補によって分類器の判定が改善された一例を挙げる。 サーバーまたはネットワークに【問題】があるか、またはアイドル時間が長すぎた可能性があります。> この用例の「問題」の正解は “problematic” で、増補前の分類器は “task” の判定だったが、増補後の分類器は “problematic”の判定を行った。 展望として、作成した「問題」の語義のアノテー ションルールを拡張し、「問題」の類義語の語義タグ付きコーパスの作成を目指す。さらに、作成したコーパスから、「問題」や「問題」の類義語を特徴語として、「問題内容」及び「解決法」の情報抽出を行うことで、先行研究の日本語版「問題内容」と「解決法」コーパスの作成を目指す。 ## 7 おわりに 本研究は、日本語の科学論文から問題解決プロセスの情報抽出を行うための準備として、人手によるアノテーションによって、「問題」の語義タグ付きコーパスを作成し、自己学習によるコーパスの増補を行った。さらに研究を進め、最終的には日本語版「問題内容」と「解決法」コーパスの作成を目指していきたい。 ## 謝辞 本研究の先行研究の著者である Kevin Heffernan さんと Simone Teufel さんには、論文内で使用した詳細なコーパスアノテーションルールについてご教授いただける等研究に多大なるご助言をいただきました。ここに感謝の意を示します。本研究は、茨城大学の特色研究加速イニシアティブ個人研究支援型「自然言語処理、データマイニングに関する研究」 に対する研究支援および JSPS 科研費 17KK0002 の助成を受けたものです。 ## 参考文献 [1] Kevin Heffernan and Simone Teufel. Identifying problems and solutions in scientific text. Scientometrics, Vol. 116, No. 2, pp. 1367-1382, 2018. [2] Kiyoaki Shirai. Senseval-2 japanese dictionary task. In Proceedings of SENSEVAL-2 Second International Workshop on Evaluating Word Sense Disambiguation Systems, pp. 33-36, 2001. [3] Manabu Okumura, Kiyoaki Shirai, Kanako Komiya, and Hikaru Yokono. On semeval-2010 japanese wsd task. Information and Media Technologies, Vol. 6, No. 3, pp. 730-744, 2011. [4] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [5] Kanako Komiya, Yuto Sasaki, Hajime Morita, Minoru Sasaki, Hiroyuki Shinnou, and Yoshiyuki Kotani. Surrounding word sense model for japanese all-words word sense disambiguation. In Proceedings of the 29th Pacific Asia Conference on Language, Information and Computation, pp. 35-43, 2015. [6] David Yarowsky. Unsupervised word sense disambiguation rivaling supervised methods. In 33rd annual meeting of the association for computational linguistics, pp. 189-196, 1995. [7] 鈴木類, 古宮嘉那子, 浅原正幸, 佐々木稔, 新納浩幸. 概念辞書の類義語と分散表現を利用した教師なし all-words wsd. 自然言語処理, Vol. 26, No. 2, pp. 361-379, 2019. [8] 新納浩幸, 浅原正幸, 古宮嘉那子, 佐々木稔. nwjc2vec: 国語研日本語ウェブコーパスから構築した単語の分散表現データ. 自然言語処理, Vol. 24, No. 5, pp. 705-720, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P6-9.pdf
# クラウドソーシングによる大規模読み時間データ収集 浅原 正幸 国立国語研究所 masayu-a@ninjal.ac.jp ## 1 はじめに 本研究では、クラウドソーシングにより、日本語を対象とした大規模読み時間データを構築したので報告する。我々は、視線走査装置 ${ }^{1}$ や自己ペース読文法 [1]を用いて、新聞記事を対象として読み時間データを収集 [2] し、さまざまな分析 $[3,4,5,6,7]$ をおこなってきた。また、教科書・書籍に対しても視線走査装置による小規模の読み時間データを収集した [8]。しかしながら、被験者を研究室に呼んで、視線走査装置を用いて実験を行うことが困難となった。一方、英語においては、Amazon Mechanical Turk で被験者を募集して、読み時間を収集した Natural Story Corpus (NSC) [9] が構築されている。同様の試みとして、Yahoo! Japan の Yahoo! クラウドソーシングを用い被験者を募集したうえで、ibex ${ }^{2)}$ を利用して、ウェブブラウザを介して自己ペース読文法により大規模に読み時間データを収集した。本稿では読み時間収集手法を示すとともに、簡単な統計分析結果を報告する。 ## 2 読み時間データの収集手法 ## 2.1 刺激文 刺激文は『現代日本語書き言葉均衡コーパス』 権フリーのもの 1 莫科書ンプルを、実験環境とともに結果を公開する。OTは、国語科(現代文)のもの 38 サンプル(小 17、中 9、高 12)を用いた。これは、日本で国語教育を受けた方であれば過去に読んだことがある刺激文として、読み時間データを収集した。今後、国外で国語教育を受けた方や日本語学習者のデータを取得し、国語教育・日本語教育におけるリーダビリティ評価の対照データとして利用することを想定する。PBはコアデータ 83 サンプルを用  2) https://github.com/addrummond/ibex/ いた。これは、係り受けなど多様なアノテーションに基づく検討を行うほか、PNの読み時間データで制限されている商用利用を想定する。 表 1 に、刺激文のサンプル数・文数・文節数(および募集被験者数:次節で言及)を示す。対照のために NSC のサンプル数・文数・単語数を示す。NSC はおよそ 1,000 語程度の文章をサンフプリングしたが、我々のデータもOT・PBサンプルについては平均 1,000 文節以上のデータを刺激として用いた。 各刺激文章に対して、内容をきちんと読んでいるかを確認するための YES/NO で回答する質問を 2 つずつ(YES が正解 1 つ、NO が正解 1 つ)設定した。 表 1 刺激文の統計 †本研究と NSC の集計方法は異なる(2.2 節参照) ## 2.2 自己ペース読文法 図 1 移動窓方式による自己ペース読文法 自己ペース読文法は、移動空を用いて疑似的な視線移動環境を設定しながら、部分的に呈示された単 語や文節の表示時間により読み時間を計測する手法である。図 1 に例を示す。スペースキーを押すたびに逐次的に文節が表示され、スペースキーを押した時間間隔をミリ秒単位で記録することで読み時間を計測する。1 文章を読んだ最後に「はい」「いいえ」 の 2 択で答える内容把握の設問を設定した。ブラウザ上で自己ペース読文法による被験者実験を行うため、ibexfarm ${ }^{3}$ を用いた。日本語対応は文献 [11] に倣った。 ## 2.3 被験者 被験者は Yahoo! クラウドソーシング4)により募集した。 2020 年 10 月に、あらかじめ「単語親密度」 の評定実験 [12] を行い、単語親密度の回答において、回答の分散が大きい2,092人を対象に募集した。 これは、適切に作業に取り組む方をあらかじめ選別するほか、単語親密度推定時に被験者毎の語彙力も推定できるために、事前実験として行った。 OWに対しては、試験的に 500 人募集して実験を行った。OT・PBに対しては、200人募集した。内容確認質問の正解が YES である実験 100 人、NO である実験 100 人募集した ${ }^{5)}$ 。表 1 に示す本研究の被験者数はサンプル毎の募集人員だが、NSC の被験者数はいずれかのサンプルを確認した異なり人数である。NSC においては、各被験者は最低 5 サンプルを確認した。NSC 論文で言及されているように本実験の作業者の異なりを集計すると 574 人(延べ 24,727 人)であった。 ## 3 実験データの整理 ## 3.1 不適切なデータの排除 本データの収集は、オンラインで実施したため、 データの品質が対面で収集した際よりも品質が悪いことが想定される。そこで、不適切なデータの排除を試みる。まず、(1) 実験開始時に実験データの取り扱いおよび謝金の支払方法に同意していないものを排除した。次に、(2) 同じ被験者が同じサンプルを複数回実施した場合、 2 回目以降の試行デー タを削除した。さらに、(3) サンプル単位の平均読み時間が $150 \mathrm{~ms}$ 未満もしくは $2,000 \mathrm{~ms}$ 超過のもの、 (4)YES/NO 質問を誤答しているものを排除した。  最後にデータポイント単位に不適切なデータを排除する。表 3 の「適切なサンプル」の行に、適切なサンプルに含まれるデータポイント数を示す。これらから、さらに (5) $100 \mathrm{~ms}$ 未満もしくは $3,000 \mathrm{~ms}$ 超過のものを排除した。結果、表中「分析対象」に示す件数を適切なデータポイントとして扱うことにした。 ${ }^{6}$ NSR のデータポイント数が 848,857 と比しても、大規模な読み時間データが構築できたといえる。 ## 3.2 実験データの形式 表 4 に実験データの形式について示す。データは TSV の帳票形式で 1 行目がヘッダ行で列名を記載してある。 BCCWJ_Sample_ID と BCCWJ_start が BCCWJ 上の位置情報で、この情報により BCCWJ 上の形態論情報や各種アノテーションデータと突合ができる。 SPR_sentence_ID と SPR_bunsetsu_ID が実験時の文 ID と文節 ID で、実質的に実験内の呈示順を表す。SPR_surface は呈示した表層形であるが、OT と PB はマスクして文字数のみ (SPR_word_length) がわかるようにした。 SPR_reading_time が分析対象の読み時間である。分析時には、対数読み時間 (SPR_log_reading_time) も生成した。SPR_instructiontime が最初の実験教示の時間である。2 回目以降の実験においては読み飛ばされる傾向がある。 SPR_QA_question が実験時の確認用の YES/NO 質問で、SPR_QA_answer がその正解である。 SPR_QA_correct が被験者が YES/NO 質問に正解したか否かのフラグで、公開データは基本的には正 6)基準として、NSC [9] が $100 \mathrm{~ms}$ 未満もしくは $3,000 \mathrm{~ms}$ 超過のデータポイントを削除しているのを参考にした。 表 4 実験データの形式 解したもののみとする。SPR_QA_qatime が被験者が YES/NO 質問に要した回答時間である。 SPR_subj_ID が被験者 ID である。SPR_averageRT が実験時のサンプル単位の平均読み時間である。 SPR_timestamp が実験を実施した時刻、SPR_trial が当該ジャンルの読み時間計測を行うのが何回目かを表す。SPR_control が実験時の呈示方法(文節間に空白があるかないか) である。 読み時間の係り受けの書影響を検討するために、コアデータの自W・䢂籍に対しては、BCCWJDepPara [13] の情報を付与した。BCCWJ-DepPara は BCCWJ と異なる文境界を定義しているため、呈示した際の文節 ID との䶡踣が生じる (DepPara_bid, DepPara_depid) が、係り受けの数 (DepPara_depnum) は BCCWJ-DepPara の基準に基づく。 また、OTについては、分析対象として教科書の校種 (BCCWJ_OT_school_type, OT01: 小・OT02:中・ OT03:高等学校) を設定した。 ## 4 実験データの分析 ## 4.1 分析方法 本稿では、頻度主義的な分析手法 $[14,15]$ による結果を示す。読み時間の検討を一般化線形混合モデル (R[16], lme4[17], stargazer[18])を用いて行う。固定効果として、呈示順の情報である SPR_sentence_ID (実験時の文 ID) ・SPR_bunsetsu_ID (実験時の文節 ID) と、表層形の文字数である SPR_word_lengthを考慮した。OW・PBについては、当該文蓈既の係り受けの数DepPara_depnum を考慮した。OTにつついては、校種 SPR_OT_school_type を考慮した。OT・PBについては、同一の被験者が複数のサンプルを読んだ際の試行順序 SPR_trial も固定効果としてモデル化した。 また、被験者間の個人差をモデル化するために した。OT・PB については、サンプル間の個体差をモデル化するために BCCWJ_Sample_ID (BCCWJ のサンプル ID) もランダム効果として考慮した。分析式は次のとおり: SPR_reading_time SPR_sentence_ID+SPR_bunsetsu_ID +SPR_word_length+SPR_trial +DepPara_depnum+BCCWJ_OT_school_type +(1|SPR_subj_ID_factor)+(1|BCCWJ_Sample_ID) .以下では、一度モデルを推定したうえで、3SDよりも外側の值のデータポイントを排除し、再推定を行った結果を示す。なお、対数読み時間の頻度主義的な分析は付録に示す。 表 5 一般化線形混合モデルの基づく分析結果(読み時間) ## 4.2 分析結果 表 5 に分析結果を示す。表中、固定効果に対する推定値を有意差の有無ともに示す。カッコ内の値は標準誤差である。 サンプル内の呈示順 (SPR_sentence_ID, SPR_bunsetsu_ID) については、いずれのレジスタにおいても読み時間が短くなる傾向が確認された。文字数が長くなるにつれて読み時間が長くなる傾向も確認された (SPR_word_length)。 自漛・P部については、当該文節の係り受けの数 (DepPara_depnum) との相関を検討した。いずれの結果も係り受けの数が多い文節の読み時間が短くなる傾向が確認された。 OT・PB については、同一の被験者が複数のサンプルを読んだ際の試行順序SPR_trial も固定効果として検討した。OTにおいては試行回数を重ねるにあたり読み時間が短くなるが、PB においては試行回数を重敔るにあたり読み時間が長くなる傾向がみられた。OTについては、校種 SPR_OT_school_type を考慮した。小学校のテキストに比べて、高等学校の読み時間のほうが短くなる傾向がみられた。OT においては、実験選択画面において小学校 $\Rightarrow$ 中学校 $\Rightarrow$ 高等学校という順で進めやすいようになっており、実際 SPR_trial と小中高等学校の校種順に相関がある状態であった。このことが読み時間に対する試行回数の影響のレジスタ間の䶡䶣をもたらした可能性がある。 最後にレジスタ間の関係について言及する。被験 最初に実験を行ったOWでは、他のレジスタと比べて長い傾向がみられる。OTは日本国内で国語の教育を受けた場合には一度は目にしている可能性が高いテキストである。しかしながら、呈示順が影響し 書籍に対しては、日本十進分類法などによるジャンル間比較を行うことを検討する。 ## 5 おわりに 本発表では、クラウドソーシングを用いて構築した大規模な読み時間データについて紹介した。ブラウザ上で動作する自己ペース読文法による実験環境 ibexfarm を用い、Yahoo! クラウドソーシングで被験者を募集することにより、短期間・低価格に大規模読み時間データを構築することができた。実験デー タの分析においては、線形混合モデルによる試行順・係り受けの数の影響を検討し、過去の実験室で収集したデータによる結果と同様の結果が得られることを確認した。さらに、OTの分析においては、小学校の教科書よりも高等学校の教科書のほうが成人日本語話者の読み時間が短くなることを確認した。 本データは https://github.com/masayu-a/ BCCWJ-SPR2 で公開する。今後、BCCWJ のさまざまなアノテーションとの重ね合わせを行い様々な分析を行うとともに、ベイズ主義的な分析 $[19,20]$ も進めたい。また、L1 学習者・L2 学習者の読み時間を収集することにより、言語の読解能力の習得過程のデータ化を進めたい。 ## 謝辞 本研究は国立国語研究所コーパス開発センター 共同研究プロジェクトの成果です。また、科研費 18H05521, 18K18519 の支援を受けました。 ## 参考文献 [1]Marcel Adam Just, Patricia A. Carpenter, and Jacqueline D. Woolley. Paradigms and processes in reading comprehension. Journal of Experimental Psychology: General, 3:228-238, 1982. [2]浅原正幸, 小野創, and 宮本エジソン正. BCCWJEyeTrack-『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析-. 言語研究, 156:67-96, 2019. [3]浅原正幸. 名詞句の情報の状態と読み時間について.自然言語処理, 25(5):527-554, 2018. [4]浅原正幸. 日本語の読み時間と節境界情報一主辞後置言語における wrap-up effect $の$ 検証一. 自然言語処理, 26(2):301-327, 2019. [5]浅原正幸 and 加藤祥. 読み時間と統語・意味分類. 認知科学, 26(2):219-230, 2019. [6]浅原正幸. 単語埋め込みに基づくサプライザル. 自然言語処理, 26(3):635-652, 2019. [7]浅原正幸. 読み時間と述語項構造・共参照情報について. In 言語処理学会第 25 回年次大会発表論文集, pages 249-252, 2019. [8]森山奈々美, 荻原亜彩美, 近藤森音, 浅原正幸, and 相澤彰子. BCCWJ-EyeTrack-2: 書籍と教科書の読み時間データ. In 言語処理学会第 25 回年次大会発表論文集, pages 699-702, 2019. [9]Richard Futrell, Edward Gibson, Harry J. Tily, Idan Blank, Anastasia Vishnevetsky, Steven Piantadosi, and Evelina Fedorenko. The Natural Stories Corpus. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [10]Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced Corpus of Contemporary Written Japanese. Language Resources and Evaluation, 48:345-371, 2014. [11]中谷健太郎. 自己ペース読文課題を使った実験:ウェブ編. In 中谷健太郎, editor, パソコンがあればできる! ことばの実験研究の方法容認性調査、読文・産出実験からコーパスまで, chapter 4, pages 81-106. ひつじ書房, 東京, 2019. [12]浅原正幸. Bayesian linear mixed model による単語親密度推定と位相情報付与. 自然言語処理, 27(1):133-150, 2020. [13]浅原正幸 and 松本裕治. 『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテー ション. 自然言語処理, 25(4):331-356, 2018. [14]R. Harald Baayen. Analyzing Linguistic Data: A practical Introduction to Statistics using R. Cambridge University Press, 2008. [15]Shravan Vasishth, Daniel Schad, Audrey Bürki, and Reinhold Kliegl. Linear Mixed Models in Linguistics and Psychology: A Comprehensive Introduction. (近刊). [16]R Core Team. R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria, 2020. [17]Douglas Bates, Martin Mächler, Ben Bolker, and Steve Walker. Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67(1):1-48, 2015. [18]Marek Hlavac. stargazer: Well-Formatted Regression and Summary Statistics Tables. Central European Labour Studies Institute (CELSI), Bratislava, Slovakia, 2018. R package version 5.2.2. [19]Tanner Sorensen, Sven Hohenstein, and Shravan Vasishth. Bayesian linear mixed models using Stan: A tutorial for psychologists, linguists, and cognitive scientists. Quantitative Methods for Psychology, 12:175-200, 2016. [20]Bruno Nicenboim, Daniel Schad, and Shravan Vasishth. An Introduction to Bayesian Data Analysis for Cognitive Science. (近刊). ## A 付録 表 6 に対数読み時間の分析結果を示す。外れ値とみなす $3 \mathrm{SD} より$ 外側の削除数が若干減ったが、基本的に読み時間と同様の結果が得られた。 表 6 一般化線形混合モデルに基づく分析結果(対数読み時間)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-10.pdf
# ビジネスシーン対話対訳コーパスの構築と対話翻訳の課題 中澤敏明李凌寒 Matīss Rikters 東京大学 \{nakazawa, li0123, matiss\}@logos.t.u-tokyo.ac.jp ## 1 はじめに 機械翻訳の研究には対訳コーパスが必須であり、今や様々な言語対・ドメイン・サイズのデータが自由に使える形で公開されているが、それらの多くは書き言葉を対象としている。例えば Web のクロー ルデータ1) $[1]$ 、ニュース解説 2 )、特許文書 [2]、科学技術論文 [3] などは全て書き言葉である。話し言葉を対象としたデータもいくつか存在するが、一人が喋り続る TEDのようなモノローグ形式のもの $[4,5]$ であったり、複数名の対話であっても多くのノイズを含んでいたり $[6,7]$ と、自由に使えるクリーンな対話の対訳コーパスはほとんど存在しないのが現状である。 $\mathrm{WMT}^{3)} 、 \mathrm{IWSLT}^{4)} 、 \mathrm{WAT}^{5}$ ななどの機械翻訳の評価ワークショップでも書き言葉やモノロー グ、ノイズを含む対話を翻訳対象としている。唯一、IWSLT で用いられているデータの一つにスペイン語と英語間のクリーンな対話対訳コーパス [8] があるが、このようなコーパスは希少である。 書き言葉やモノローグの機械翻訳精度は利用可能な対訳コーパスの堌強やニューラルネットワーク技術の発展により非常に向上したが、複数名の対話の機械翻訳についてはまだ精度向上の余地が多く残されている。典型的な例は代名詞補完で、日本語のように代名詞が省略可能な (pro-drop) 言語から英語のように省略できない言語に翻訳する場合に、より自然な訳文とするためには適切な代名詞を補って訳出する必要がある。代名詞の省略は書き言葉よりも話し言葉の方が圧倒的に多いため、対話の翻訳においてはこの問題は重要である。このような問題を解決するために文脈(ここでは翻訳対象文よりも前の文を指す)を考慮した翻訳モデル $[9,10,11]$ が提案されているが、文脈つきの対話対訳コーパスはノイズの ) https://commoncrawl.org/ 2) http://www.statmt.org/wmt20/translation-task.html 3) http://www.statmt.org/wmt20/ 4) https://iwslt.org/2021/ 5) http://lotus.kuee.kyoto-u.ac.jp/WAT/多い OpenSubtitles ${ }^{6}$ や $\mathrm{JESC}^{7)}$ などを除くとほとんど存在しない。 そこで我々は新たに日英ビジネスシーン対話対訳コーパス (The Business Scene Dialogue (BSD) corpus) を構築し、その一部を公開した8)。ライセンスは Creative Commons Attribution-NonCommercialShareAlike (CC BY-NC-SA) であるので、商用でなければ自由に利用できる。公開したデータ量やフォー マットの詳細はホームページや本稿の付録を参照していただきたい。 BSD コーパスは他の言語資源を参照して構築されたものではなく、一から構築されたものである。「ビジネス」における「対話」を対訳コーパスのドメインとして選択した理由は二つあり、一つはビジネスシーンがドメインとして広すぎず狭すぎず適当な粒度であると考えた点で、もう一つはノイズの少ない対話の対訳コーパスが機械翻訳研究の新たな方向を開くのに有用と考えた点である。対話のコーパスであるので、機械翻訳だけでなくもちろん対話の研究にも役立つのではないかと考える。 本稿では BSDコーパスの紹介と、これを利用した WAT2020[12] 翻訳タスクの結果の紹介、翻訳結果の誤り分析から得られた対話翻訳の課題を報告する。 ## 2 BSD コーパスの概要 ## 2.1 特徴 BSDコーパスは「シナリオ」を大きな単位として用いている。ビジネスにおける様々なシチュエー ションを想定し、そのシチュエーションで行われる一連の対話を一つのシナリオとして収録している。各シナリオには 6 種類のタグからなるシーン情報とシナリオタイトル (より詳細な状況説明)が付与されている。これらの情報を用いることで、例えば対話 6) https://www.opensubtitles.org/ 7) https://nlp.stanford.edu/projects/jesc/ 8) https://github.com/tsuruoka-lab/BSD の文脈からだけでは難しいような訳語の選択 (日本語の「すみません」を英訳する場合など) が行えたり、将来的な実利用の場面ではカメラにより周囲の状況 (シーンや会話のシチュエーション)を認識しつつ適切な翻訳を行うといったマルチモーダル翻訳の実現も考えられる。また各発話には話者の情報も付与されている。 ## 2.2 構築手順 BSD コーパスは 1) ビジネスシーンの選定、2) シーンに沿った日本語および英語での会話シナリオ作成、3) シナリオの英語および日本語への翻訳の 3 つのステップを経て構築した。なおシナリオ作成には 28 名の日本語シナリオライターおよび 23 名の英語シナリオライターが携わり、日英翻訳は 8 名、英日翻訳は 13 名の翻訳者によって行われた(シナリオ作成と翻訳を兼ねる者も数名いた)。また全体的な質を担保するために、3名が全体の品質チェックを行った。さらに、シナリオがビジネスシーンとして適切であることを保証するために、広く一般に知られているメディア等でビジネス会話の関連したコンテンツに主として関わった経験があり、日本語、英語ともビジネスシーンにおいて問題なく会話ができ、自らもビジネスに携わった経験を保有しているものを監修者として 1 名置き、全体的な内容の確認を行った。 ## 1) ビジネスシーンの選定 ビジネスシーンは会議、交渉、雑談など様々なビジネスの状況をカバーするように慎重に選定した。 また特定の業種にしか該当しないようなシーンは避け、様々な業種で汎用的に用いられるようなシーンを選定した。今回は「対面対話 (2 名での仕事上の対話)」「電話応対」「雑談」「会議 (複数名での対話)」「研修」「プレゼン」の6つのシーンを選定した。 ## 2) 単言語でのシナリオ作成 対話のシナリオは選定されたビジネスシーンに沿って、日本語および英語それぞれ半数ずつ、単言語で作成した。半数ずつとした理由は、ビジネスシーンにおいて各言語で特徴的に利用されるような表現をなるべく幅広くカバーするためである。一方の言語でのみシナリオを作成しこれを相手言語に翻訳するだけでは、表現のバリエーションが限られてしまう (いわゆる translationese) 可能性があり、これ を回避することを狙っている。 ## 3) シナリオの翻訳 作成された単言語のシナリオは人手で相手言語に翻訳した。機械翻訳の利用は禁止とし、正確性だけでなく相手言語における流暢性や会話としての自然さも重視するよう指示した。例えば英語を日本語に翻訳する場合には、逐語的に訳すと英文中の全ての代名詞を日本語文に訳出することになるが、日本語対話においては多くの代名詞 (特に一人称と二人称) は省略されることが普通である。逆に主語の省略された日本語を英語に訳す場合には、無理に受動態で翻訳することは避け、適当な主語を補完した自然な能動態として翻訳するよう指示した。 ## 3 WAT2020 での BSD 翻訳タスク ## 3.1 タスク概要 WAT2020 において BSD コーパスを利用した翻訳タスクを設定した。参加者は BSD コーパスのテストデータの翻訳結果を提出することが求められる。 モデルの訓練には BSD コーパスの訓練データだけでなく、他の既存の対訳コーパス (外部データ)を用いることもできる。日英翻訳には 4 チーム、英日翻訳には 3 チームの参加があった。 ## 3.2 人手評価 人手評価基準として特許庁が公開している「特許文献機械翻訳の品質評価手順 ${ }^{99}$ の中の「内容の伝達レベルの評価」を採用した。これは機械翻訳結果が原文の実質的な内容をどの程度正確に伝達しているかを、参照訳の内容に照らして 5 段階 (評価値 5 が最もよく、1が最も悪い) の評価基準で主観的に評価するものであり、いわゆる Adequacy(正確性) 評価と同等のものである。正確性評価は合計の文数が 400 文になるようにテストデータからランダムにシナリ才を選択したものを対象として行い、各文を 2 名の評価者が独立に評価した。また文脈を考慮して適切な訳となっているかという点も考慮に入れている。 図 1 亿正確性評価結果を示す。WAT のポリシー に従いチーム名は匿名化して表示しているが、各グラフで同じチーム名のものは実際に同じチームからの投稿であったことを示している。なお Team B  図 1 日英 (上) および英日 (下)BSD 翻訳タスクの正確性評価結果 (グラフ内の数字は各評価値の割合を、チーム名の下の括弧内の数字は評価の平均を表す) は本稿の著者らの結果である。両方向とも評価の平均值は最も高いもので 4.2 程度であり非常に高精度で訳されていると思われるが、BSDコーパスの性質上、相槌など非常に短い文なども含まれているため、 4.2 という値がどの程度満足のいくものなのかはより深く分析する必要があると思われる。 ## 3.3 各チームの手法と知見 評価結果はどのチームも近い値であったが、用いた翻訳モデルや外部データは異なっている。Team A は翻訳対象文と直前の 3 文を文脈として同時に使った mBART[13] を用いている。他のチームは文脈情報は用いず、単文での翻訳だった。どのチームも大規模な外部データを併用して翻訳モデルの訓練を行い、BSDなどの対話コーパスで fine-tuning するという戦略を取った。 興味深い知見として、BSDコーパスのみを用いた fine-tuning は効果がなく、むしろ翻訳精度が悪化すると多くのチームから報告があった。しかしながら、BSD に加えて外部の対話データ (OpenSubtitles や JESC) も併用した fine-tuning は効果的で、翻訳精度が向上するとも報告された。このことから機械翻訳では fine-tuning においてもある程度の量の対訳コーパスが必要であると結論づけられる。 また Team D からの報告では、sub-word の語彙サイズを小さく (報告では 6,000 を用いていた)する方表 1 翻訳誤りの傾向調査結果 & & 合計 \\ が翻訳精度が向上するとのことだった。はっきりとした理由は不明だが、会話文においては使われる語彙がニュース記事や科学技術論文などと比べてそれほど大きくないためである可能性がある。この点については今後深く分析する必要がある。 ## 4 対話翻訳における課題 現状の対話翻訳においてどのような課題があるのかを分析するために、WAT2020の BSD 翻訳タスクでの Team B(本稿の著者ら) の翻訳結果について、翻訳誤り傾向を調査した。誤りのタイプを「誤訳 (文脈に関係なく誤り)」「訳抜け」「過剩訳」「文脈上不適切」「代名詞訳出誤り」の 5 種類に分類し、2 名の評価者で分類が一致したものを計数したものを表 1 に示す。なお 1 つの文で複数の分類が付与される場合もあるため、数字は延べ数である。ここでは特に 「文脈上不適切」「代名詞訳出誤り」の 2 つについて例を示しつつ分析を行う。 ## 4.1 文脈上不適切 文脈上不適切な訳になっている例を図 2 および図 3 に示す。図 2 は文脈情報を使うことで適切な訳が出力できるであろう例で、実際に一つ前の文を連結して用いる手法 $[9,14]$ を用いて翻訳を行うと一番右の列のように翻訳が改善することがわかる。一方、図3 に示す例は単に前の文の情報を用いるだけでは解決が難しく、ぼんやりと会話全体の流れをとらえ、さらにその流れに沿って適切な表現を選択する必要がある。これには mBART のような事前学習モデルを利用することで解決が期待できるため、まずは Team A の翻訳結果の分析を行う予定である。 ## 4.2 代名詞訳出誤り 代名詞の訳出誤りは日英翻訳における典型的な翻訳誤りであるが、その解決に必要となる情報源には我々が観測した範囲では三つのタイプが存在する。一つ目は文脈文に出現する名詞等の情報を用いたり、目的言語側の過去の出力を利用 [15]するなどすれば解決可能なものである。二つ目は図 4 に示すように、文脈文を用いずとも当該文の動詞に後続する & Could I have your name please? & May I have your name? & May I have your name? \\ 図 2 日英翻訳における文脈上不適切な訳の例 (文脈文を用いることである程度解決が可能) & 正直なところ、少し緊張しているんだ。 & \\ 図 3 英日翻訳における文脈上不適切な訳の例 (全体的な会話の流れを掴んだり、一般常識等を用いる必要がある) $ \begin{array}{|c|c|c} \end{array} $ 多国籍チームだけの話じゃない、営業グ I'm not just talking about Multinational team, It's not just about Multinational team, it's talking 図 4 原文の機能語列の情報を利用することで省略された代名詞が推測可能な例 & & \\ 図 5 正しい代名詞を補完するために話者情報が必要となる例 (3 文目や 4 文目は木内さんの発言の可能性もある) 機能語列から代名詞が推測可能なものであり、例えば Kudo ら [16] の手法などにより解決可能なものである。三つ目は図 5 に示すように、話者情報が必要となるものである。例えば 3 文目は木内さんの発言としても解釈可能であり、その場合は出力文の方が正しい訳となる。 ## 5 まとめ 本稿では BSDコーパスおよび WAT2020 での BSD 翻訳タスクの結果の紹介を行い、翻訳結果の分析から対話翻訳の課題について議論した。公開した BSD コーパスがこれらの課題の解決の一助となれば幸いである。BSDを利用した翻訳タスクはWAT202110) においても設定しているので、興味のある方はぜひ参加していただきたい。WAT2021では新たな開発 10) https://lotus. kuee.kyoto-u.ac.jp/WAT/WAT2021/ データとテストデータを追加で公開予定である。 また本稿では触れていないが、AMI Meeting Corpus[17] を和訳することで対訳コーパスとした ただければと思う。 ## 謝辞 本研究成果は独立行政法人情報通信研究機構 (NICT) の委託研究「多言語音声翻訳高度化のためのディープラーニング技術の研究開発」により得られたものです。 またビジネスシーン対話対訳コーパスの構築にあたっては、株式会社バオバブ様に設計の段階からご協力いただきました。ここに御礼申し上げます。  ## 参考文献 [1] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [2] Isao Goto, Bin Lu, Ka Po Chow, Eiichiro Sumita, and Benjamin Tsou. Overview of the patent machine translation task at the ntcir-9 workshop. In Proc. of NTCIR-9 Workshop Meeting, pp. 559-578, 122011. [3] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [4] Mauro Cettolo, Christian Girardi, and Marcello Federico. $\mathrm{Wit}^{3}$ : Web inventory of transcribed and translated talks. In Proceedings of the $16^{\text {th }}$ Conference of the European Association for Machine Translation (EAMT), pp. 261268, Trento, Italy, May 2012. [5] Mattia Antonino Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. MuST-C: a Multilingual Speech Translation Corpus. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), Minneapolis, MN, USA, June 2019. [6] Jörg Tiedemann. Finding alternative translations in a large corpus of movie subtitle. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC 2016), pp. 3518-3522, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [7] R. Pryzant, Y. Chung, D. Jurafsky, and D. Britz. JESC: Japanese-English Subtitle Corpus. Language Resources and Evaluation Conference (LREC), 2018. [8] Elizabeth Salesky, Susanne Burger, Jan Niehues, and Alex Waibel. Towards fluent translations from disfluent speech. In Proceedings of the IEEE Workshop on Spoken Language Technology (SLT), Athens, Greece, December 2018. [9] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 8292, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [10] Elena Voita, Pavel Serdyukov, Rico Sennrich, and Ivan Titov. Context-aware neural machine translation learns anaphora resolution. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1264-1274, Melbourne, Australia, July 2018. Association for Computational Lin- guistics. [11] Elena Voita, Rico Sennrich, and Ivan Titov. When a good translation is wrong in context: Context-aware machine translation improves on deixis, ellipsis, and lexical cohesion. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1198-1212, Florence, Italy, July 2019. Association for Computational Linguistics. [12] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win $\mathrm{Pa} \mathrm{Pa}$, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, and Sadao Kurohashi. Overview of the 7th workshop on Asian translation. In Proceedings of the 7th Workshop on Asian Translation, pp. 1-44, Suzhou, China, December 2020. Association for Computational Linguistics. [13] Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [14] Rico Sennrich and Barry Haddow. Linguistic input features improve neural machine translation. In Proceedings of the First Conference on Machine Translation: Volume 1, Research Papers, pp. 83-91, Berlin, Germany, August 2016. Association for Computational Linguistics. [15] Hideya Mino, Hitoshi Ito, Isao Goto, Ichiro Yamada, and Takenobu Tokunaga. Effective use of target-side context for neural machine translation. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4483-4494, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [16] Taku Kudo, Sora Ichikawa, and Hideto Kazawa. Language independent null subject prediction for statistical machine translation. Journal of Natural Language Processing, 2015. [17] Iain McCowan, Jean Carletta, Wessel Kraaij, Simone Ashby, S Bourban, M Flynn, M Guillemot, Thomas Hain, J Kadlec, Vasilis Karaiskos, et al. The ami meeting corpus. In Proceedings of the 5th International Conference on Methods and Techniques in Behavioral Research, Vol. 88, p. 100, 2005. 表 2 公開したビジネスシーン対話対訳コーパスの統計量 (シナリオ数 / 文数) 起点言語:日本語シーン:電話応対シナリオタイトル:伝言への折り返し電話打ち合わせ日程調整 \\ 図 $6 \mathrm{BSD}$ コーパスの対訳例 ## A 公開データ数とシーンごとの内訳 表 2 に公開したデータのシナリオ数および文数、またシーンごとの内訳を示す。訓練データは合計 2 万対訳文で、開発データとテストデータはそれぞれ約 2,000 文ずつである。なおWATでの利用を想定して、毎年新たな開発データとテストデータを同量程度ずつ追加公開する予定である。 ## B BSD 対訳例 図 6 に BSDコーパスの対訳例を示す。なおデータはjson 形式で配布されている。 ## CBSD コーパス構築の詳細仕様 BSD 構築における詳細な仕様のうち、主だったものを以下に示す。 ・口語でそのまま発音しない略語 (NY など) は使わず、会話で使われる表記を用いる (New Yorkなど) ・時刻は数字ではなく文字表記で訳出し、「:」は使用しない ・翻訳時にあまりにもて長であったり不自然な場合は訳文を2文にしてもよい ・1 シナリオあたり対話は 3 ターン (6 文) 以上、上限は 20 ターン (40 文) まで ・「プレゼン」と「研修」はモノローグ (登場人物が 1名のみ)でもよい ・日本語では標準語を英語ではアメリカ英語を極力用いること (方言やスラングなど極端にくだけた表現は避ける) ・1 シナリオ内の登場人物は 4 人以下とする ・個別の実在する会社名の使用は避け、A 社、B 社などを用いる (ただしサービス名としての Facebook や twitter、インスタなどの使用はよしとする) ・対面ではない発話の状況を示すような情報、また話者の役職、肩書等は、本文とは別に「付属情報」に記載する
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-11.pdf
# 階層型 Transformer デコーダを用いた文字レベル機械翻訳 高㠃環 東京大学工学部電子情報工学科 takasaki@logos.t.u-tokyo.ac.jp ## 1 はじめに 文字レベル機械翻訳では、単語レベルや部分語レベルでの機械翻訳に比べて、一文あたりのトークン数が増加する。それに伴い、予測の際に長距離間の文脈を把握することがより難しくなることが考えられる。 そこで本研究では、翻訳文を出力するデコーダを、単語レベルのデコーダと文字レベルのデコーダを階層型に組み合わせたアーキテクチャとすることで、長距離間の文脈を把握する性能を向上させることを目指す.本研究では、文字レベル機械翻訳の先行研究では未だ行われていない Transformer デコーダの階層化を行い、通常の Transformer モデルとの性能の比較を行った. 提案するアーキテクチャでは、階層型モデルを使用する際に、単語レベルデコーダへの入力のために、文字列を単語レベルに分割する必要が生じる.そこで本研究では、単語境界での単語分割に対し、文字数での単語分割を行った場合と比較することで、適切な単語分割手法を検討した。その結果、階層化した Transformer デコーダ [1]を用いる際に、文字数による分割を行った場合では精度が低く、単語境界での分割の方が適していることが明らかになった. また、単語境界によって分割した階層型 Transformer は、従来の Transformer モデルと比較して BLEU スコアの精度は下回ったものの、階層型 Transformer では文章が途切れずに翻訳できるケースが複数あるなど、長距離間での文脈保持に一定の効果があることが観察できた。 ## 2 関連研究 ## 2.1 文字レベル機械翻訳 ニューラル機械翻訳などの自然言語処理では、文を単語レベル、部分語レベル、文字レベルで分割する処理が行われる。従来は単語レベルでの分割が主流であったが、計算コストやメモリ容量の関係で、語彙サイズが大きい際には低頻度語を辞書に登録せず、未知語として扱う必要がある.そのため、高頻度語と字面 \author{ 鶴岡慶雅 \\ 東京大学大学院情報理工学系研究科 \\ tsuruoka@logos.t.u-tokyo.ac.jp } が近い活用語などの単語でも、未知語として処理されてしまうという問題が生じる。この問題を防ぐために、語彙サイズを抑えた文の分割手法が提案されてきた。文字レベル機械翻訳は、Costa-jussa ら [2] によって、単語の形を文字レベルから直接生成するモデルが提案されて以降、研究が進められている。また、Lee ら [3] は、単語の境界状態などのセグメンテーションを全く用いない文字レベル機械翻訳アーキテクチャを考案した。また、最近では、ニューラル機械翻訳で Transformer ベースのモデルが広く用いられるようになったことから、文字レベル機械翻訳に最適に改良された Transformer モデル [1] が、Banar ら [4] や Gao ら [5] によって提案されている. ## 2.2 階層型デコーダ エンコーダ・デコーダから構成される機械翻訳モデルにおいて、デコーダを階層化する工夫をした先行研究がいくつか存在する. Luong ら [6] は、単語レベルの分割手法で語彙サイズを一定にすると定頻度語が未知語として扱われる問題に対して、階層型デコーダを用いることを提案した。通常は単語レベルで自己回帰的に復号し、未知語が出力された場合に限り文字レベルで自己回帰的に復号し、単語レベルと文字レべルの損失関数の和を最小化するように学習することで、翻訳品質を向上させた。また、Ataman ら [7] は、 RNN[8] を用いた文字レベル機械翻訳において、単語レベルと文字レベルデコーダからなる階層型デコーダを用いることで、部分語に分割した場合に比べてより少ないパラメータで同等の翻訳精度が得られることを示すとともに、従来の文字レベル機械翻訳に比べて長距離の文脈・文法依存性をより学習できることを主張した. 階層型デコーダは、文章生成タスクでも研究が進められている. Serban ら [9] は、文章の時系列を予測する文単位でのデコーダと、文ごとに単語の時系列を予測する単語単位でのデコーダを用いた RNN モデルを用いて、文脈を考慮した文章生成の研究を行った。また、渥美ら [10] は、このモデルを階層型 図 1 階層型デコーダ Transformer に拡張したモデルを提案し、生成精度が向上されることを主張した. ## 3 提案手法 ## 3.1 階層型 Transformer デコーダ 本実験では、長距離間の文脈把握能力の向上に期待し、階層型 Transformer デコーダを実装した. これは、 Ataman ら [7] の研究で用いられている階層型 RNN デコーダを、現在機械翻訳タスクで用いられることの多い Transformerに拡張したものである. 階層型デコーダの大まかな構成を図 1 に示す. 詳細な構造を Ataman らの実装した階層型 RNN デコーダと比較しながら説明する。 ## 3.1.1 文字表現から単語表現への変換 単語ごとの文字レベルトークン列を、Character Embedding 層によってそれぞれの文字べクトルを獲得した後に、単語表現に変換する必要がある. Ataman ら [7] の階層型 RNN デコーダでは、単語内の文字べクトルを双方向 RNNに入力し、最終出力を単語表現としていた. 本実験では、実行速度の観点から、双方向 RNN ではなく、畳み込み層と Highway 層からなるアーキテクチャを構成し、単語表現を獲得している。 ## 3.1.2 単語レベル Transformer デコーダ 変換された単語表現を元に、次の単語を予測する必要がある. Ataman ら [7] の階層型 RNN デコーダでは、エンコーダに対しての注意機構付きRNNを用いて次の単語を予測する表現を獲得していた. 本実験では、エンコーダの出力を Source-Target Attention とした Transformerを用いて実装を行った。 ## 3.1.3 文字レベル Transformer デコーダ 単語レベル Transformerによって得られた次の単語の予測表現を元に、単語を構成する文字を復号する必要がある. Ataman ら [7] の階層型 RNN デコーダでは、文字レベルデコーダも同様に RNN を用いている. そして、単語レベルの RNN デコーダの出力を、文字レベルデコーダの状態として入力し、単語頭を表すトークンを入力することで文字を逐次的に復号する方法が提案されていた.本実験では、文字レベルデコー ダも Transformer で実装した. 文字レベル Transformer デコーダの Source-Target Attention の Source として、過去に生成した単語の予測表現を利用することで、現在生成する単語についての情報を文字レベルデコーダに与えるようにした. ## 3.2 単語への分割方法 階層的にデコーディングを行うに当たって、文字レベルでのトークン列を、単語などの大きな単位で分割し、次元を一つ増やす整形をする必要がある. 図 2 に、トークン列の整形を行う方法を示す. 本実験では、二つの方法でトークン列を整形した。一つ目は、単語レベルでの分割手法である. これは、単語が空白によって分割できる言語において、空白を境界として単語ごとに整形し直す手法である.単語の境界を活用する方法は、Ataman ら [7] の手法でも用いられており、単語の境界の情報を与えることによって、文字レベル機械翻訳の精度が向上する場合があると考察されている. しかし、この研究では、同じ階層型デコーダを用いる際に単語の境界情報を与えない場合については検証されていない,そこで、本研究では、単語の境界情報を与えない整形方法として、文字数を基準とした分割を採用し、比較することにした。 表 1 データ数の詳細 ## 4 実験 ## 4.1 データと前処理 今回の実験では、IWSLT'14独英翻訳コーパズ1)を利用した. 全ての実験において一字ごとにトークン化し、文頭トークン・文末トークンを必要に応じて付加した. データ数の詳細を表 1 に示す. 階層型 Transformer を用いたモデルについては、変換したトークン列を次のいずれかの方法で分割し、整形した. ・スペースによる分割(単語の境界による分割) ・文字数による分割(文字数は 4 とした) 分割したトークンの前後には単語頭トークン・単語末トークンを必要に応じて付与した. ## 4.2 モデル 翻訳モデルのエンコーダには、Gao ら [5] が提案している、Convolutional Transformerを利用した.デコーダには、次の二つのいずれかを利用した. ・通常の Transformer デコーダ ・階層型 Transformer デコーダ 通常の Transformer デコーダでは、Vaswani ら [1] の base モデルと同じものを用いた. 階層型 Transformer デコーダの文字レベル表現から単語レベルへの変換には、フィルタ幅 1 から 7 の畳み込み 7 層と Highway 層 2 層を用いた. 単語レベル、文字レベルでの出力生成には、Vaswani ら [1]の base モデルと同様のものから、埋め込み層の次元を 512 から 256 に変更したものを使用した. ## 4.3 訓練時の実験設定 モデルの実装と訓練・翻訳には fairseq ${ }^{2}$ を用いた。学習には AdamW[11]を使用し、学習率は 5e-4 から inverse square root schedule にしたがって減衰させた. dropout 0.3 , weight-decay 0.0001 、label-smoothing を 0.1 に設定した。学習の際は、patience を 3 epoch とし、開発用データにおける損失を指標として early-stopping を行った.  2) https://github.com/pytorch/fairseq表 2 各モデルの BLEU スコア ## 4.4 評価時の実験設定 テストデータにおいて翻訳を生成する際には、ビー ムサーチを用いた。階層型 Transformer デコーダを用いる際には、文字レベルデコーダでビームサーチを用いて生成する文字を推論し、生成された最も損失が少ない文字列を最終的な予測単語として確定させた。また、ビーム幅は、階層型 Transformer では 1 から 5 を試し、通常の Transformer ではビーム幅を 5 とした. また、評価用データを用いた機械翻訳の評価指標には BLEU スコア [12]を用いた. ## 5 結果と考察 ## 5.1 結果 表 2 は、それぞれのモデルの評価データにおける BLEU スコアである. また、生成された翻訳文の例を付録 A. 1 に示す. ## 5.2 考察 まず、分割方法を 4 文字毎とした際は、BLEU スコアが 0.69 と非常に低い值となった. 文字数での分割方法の場合は、訓練時も損失が下がりにくく、タスク自体が困難であったことが考えられる.この一因として、単語分割の場合と異なり、実際の単語境界を跨いで違う単語の接頭辞と接尾辞が単語レベルの表現へと変換されるケースや、実際には同じ単語内であっても、不適切な部分語として分割されている場合が避けられないことが考えられる.以下の考察では、実際の単語境界を用いてトークン列の分割を行った場合について述べる. 階層型 Transformer デコーダによって生成された文の特徴の一つに、通常の Transformer デコーダでは途中で終了していた文を最後まで生成できていることが多いことが挙げられる。 その一例を表 3 に示す.こ れは、階層型 Transformer デコーダによって長距離間の文脈を保持しやすく、長文の復号を完遂しやすいことが考えられる. その一方で、表 4 に示すような、比較的短い文の場合でも、同じような語句が繰り返されるケースが散見され、階層型 Transformer デコーダでは近距離での単語出現を把握する能力が低いことが考えられる。また、階層型 Transformer でのビームサー チについては、ビーム幅が小さいほど BLEU スコアが高くなり、最もスコアが高かったのはビーム幅が 1 の場合となった. ビーム幅を変更した場合の生成例を表 5 亿示す.この例にも観察できるように、ビーム幅を小さくすることで文章の単語ごとの一致だけでなく、文構造も一致するケースがある.このように、文字レベルデコーダにおけるビームサーチによって、単語レベルデコーダの担う文構造の把握が阻害されるケースが発生する場合があることがわかる. これは、単語デコーダで実際の単語を生成する際にエンコーダからの翻訳元の出力を利用していないため、翻訳元の文構造を把握する能力が低いことが一因として考えられる。文字レベルデコーダでのビームサーチを行うと、単語を生成する文字列としてのスコアが低いものがより選ばれやすい一方で、エンコーダの出力からの情報よりも、実際に Source-Target Attention で注視している単語レベルデコーダの出力からの情報の影響をより受けやすいことが想定される. ## 6 まとめ 本研究では、文字レベル機械翻訳において、単語レベルと文字レベルのデコーダを組み合わせた階層型デコーダを Transformer に拡張し、通常の Transformer モデルと比較を行った. その結果、BLEU スコアでは劣るものの、長文を途切れることなく復号することに適しているということが判明した。また、階層型 Transformer デコーダを構成するにあたって、単語レベルへのトークン列の分割方法を複数検討したところ、単語境界で分割した場合に比べ、文字数で分割した場合は学習が適切に行われないということが明らかになった. 今後の研究としては、文字レベルデコーダにおいて、エンコーダの情報を利用するアーキテクチャを考案することが挙げられる。また、文字レベル機械翻訳における復号時間の増大を解消するために、文字レベルデコーダを非自己回帰的な手法を用いた場合の検証を行う予定である。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [2] Marta R. Costa-jussà and José A. R. Fonollosa. Characterbased neural machine translation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 357-361, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Jason Lee, Kyunghyun Cho, and Thomas Hofmann. Fully character-level neural machine translation without explicit segmentation. Transactions of the Association for Coтpиtational Linguistics, Vol. 5, pp. 365-378, 2017. [4] Nikolay Banar, Walter Daelemans, and Mike Kestemont. Character-level transformer-based neural machine translation. arXiv preprint arXiv:2005.11239, 2020. [5] Yingqiang Gao, Nikola I. Nikolov, Yuhuang Hu, and Richard H.R. Hahnloser. Character-level translation with self-attention. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1591-1604, Online, July 2020. Association for Computational Linguistics. [6] Minh-Thang Luong and Christopher D. Manning. Achieving open vocabulary neural machine translation with hybrid word-character models. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1054-1063, Berlin, Germany, August 2016. Association for Computational Linguistics. [7] Duygu Ataman, Orhan Firat, Mattia A Di Gangi, Marcello Federico, and Alexandra Birch. On the importance of word boundaries in character-level neural machine translation. arXiv preprint arXiv:1910.06753, 2019. [8] Alex Graves. Generating sequences with recurrent neural networks. arXiv preprint arXiv:1308.0850, 2013. [9] Iulian Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, and Joelle Pineau. Building end-to-end dialogue systems using generative hierarchical neural network models. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 30, 2016. [10] 渥美和大, 狩野芳伸. Hierarchical transformer によるストーリー生成. 言語処理学会第 26 回年次大会, 2020. [11] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv preprint arXiv:1711.05101, 2017. [12] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. ## A 付録 ## A. 1 翻訳文の生成例 表 3 通常の Transformer では文が途中で途切れる例 ソース文 aber tatsächlich war es eine ausgabe auf den frühen 80ern, als ich gerade mit der grundschule anfing und damit begann , mein selbstbild außerhalb meines familiären umfelds aufzubauen und zu formen, auch in bezug auf andere kinder und zur übrigen welt um mich herum . but, in fact, the print date was the early 1980s, when i would have been starting primary school ターゲット文 and forming an understanding of myself outside the family unit and as related to the other kids and the world around me . Transformer but in fact , it was an early \&apos; 80s copy when i was just starting with the elementary school and beginning to build my self-image outside of my family environment , in terms of other children and it was actually a copy on the early \&apos; 80s when i was just starting to school with elementary school , 階層型 Transformer and $i$ was starting to build and shape my self-assembly set outside my family sphere , also in terms of other children and the rest of the world around me . 表 5 階層型 Transformer でビーム幅を変化させた例 wir haben tausende organismen die das tun können .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-12.pdf
# 知識グラフ埋め込みを用いたニューラル機械翻訳における エンティティ表現の改良 坂井 優介 渡辺 太郎 奈良先端科学技術大学院大学 \{sakai.yusuke.sr9, taro\}@is.naist.jp } 藤田 篤 情報通信研究機構 atsushi.fujita@nict.go.jp ## 1 はじめに ニューラル機械翻訳の課題として,訓練データ中に出現しない未知語(OOV)や訓練データに含まれていても出現頻度が低い低頻度語に対して翻訳品質が低いことが挙げられる。この課題に対処するために近年のニューラル機械翻訳ではサブワード化を行うことで OOV 問題を解決している $[1,2,3,4]$. しかしサブワード化を行うことは単語の表層表現しか着目しておらず,単語の意味表現を考慮して OOV 問題に対処しているとはいえない。一方, 知識グラフ等の単言語資源は機械翻訳で用いられる対訳文よりも豊富で入手しやすいことを活かし, 単言語資源を用いてニューラル機械翻訳の精度を向上させる取り組みが存在している。その中でも本研究では知識グラフを用いた手法について着目する. 知識グラフをニューラル機械翻訳に注入する手法である KG-NMT[5] を改良し, 知識グラフをニューラル機械翻訳に注入する際に,エンティティをタグに置き換える手法と,エンティティをサブワードに分割にした知識グラフをニューラル機械翻訳に注入する手法の 2 種類提案する. WMT の newtest データセットによる英独翻訳での実験の結果,提案手法ではベースラインより BLEU スコアが高いことを確認できた。 ## 2 関連研究 ## 2.1 知識グラフ 知識グラフとはトリプレットと呼ばれる形で記述されており, $h$ をへッドエンティティ,$t$ をテー ルエンティティ,$r$ を $h$ と $t$ の関係としたとき, (奈良先端科学技術大学院大学, alias, NAIST) のように $(h, r, t)$ の順に記される. 知識グラフを用いたタスクとして $h$ と $r$ が与えられたとき $t$ を予測する知識グラフ推論が存在しており, 知識グラフ埋め込み $[6,7]$ や強化学習 [8], グラフニューラルネットワー ク $[9,10]$ などによる知識グラフ推論手法が提案されている.これらの手法は, 質問応答システム [11] や推薦システム [12] などで広く利用されている. ## 2.2 知識グラフの機械翻訳への応用 知識グラフを用いたニューラル機械翻訳の取り組みは主に知識グラフをデータ拡張に用いる手法と知識グラフを直接ニューラル機械翻訳に注入する手法に大別できる。データ拡張に知識グラフを用いた研究として, Zhao ら [13] は訓練データ中のエンティティを知識グラフを用いて類似したエンティティに置換することで訓練データを拡張した. 一方,知識グラフを直接ニューラル機械翻訳に注入する手法として,知識グラフ埋め込みを用いる手法 $[5,14]$ とニューラル機械翻訳と知識グラフ推論の同時学習を行う手法 [15] が存在する. Moussalem ら [5] は KG-NMT を提案した。KG-NMT は知識グラフ埋め込みを用いて,文章中に出現するエンティティと知識グラフ中のエンティティが一致したものに対して,Sennrichらの手法 [16] を用いて該当するエンティティに,そのエンティティの知識グラフ埋め込みを結合することで, 知識グラフ埋め込みの注入を行った. KG-NMT は訓練データ中に出現しないエンティティに対しても, 知識グラフ埋め込みを用いているため,エンティティ間の関係も含めて注入することができている.しかしこれらの手法では知識グラフ中のエンティティと訓練データ中のエンティティが一致した場合にのみしか有効ではない. $D$ をニューラル機械翻訳の入力文の集合としたとき, $D$ に含まれるエンティティの集合を $V(D)$ と表す. また知識グラフ $K$ を関係のインスタンス $(h, r, t)$ の集合としたとき, 知識グラフ $K$ 中のエンティティの集合は $V(K)=\{h \mid(h, *, *) \in K\} \cup\{t \mid(*, *, t) \in K\}$ となる. he's gonna shack up at auberge du soleil. NER he's gonna shack up at auberge du soleil. Replace to tag 図 1 KG-tag NMT の手続きの概要 このとき実際のエンティティは,$U$ をすべてのエンティティの集合としたとき,ニューラル機械翻訳の訓練データにのみ含まれるエンティティの集合 $(V(D)-V(K))$, 知識グラフのみに含まれるエンティティの集合 $(V(K)-V(D))$, どちらにも出現するエンティティの集合 $(V(D) \cap V(K))$, どちらにも出現しないエンティティの集合 $(U-(V(D) \cup V(K)))$ の計 4 種類の集合が存在する. KG-NMT では $V(D) \cap V(K)$ の集合しか扱うことができなかった。また KG-NMT ではエンティティ単位で訓練データと知識グラフの対応付けを行うため,サブワード化ができず,扱う語彙が大きくなるという問題が生じる. Zhao ら [15] はそれら 4 つのエンティティの集合についてもニューラル機械翻訳へ活用するために, エンティティをサブワード化したあと, ニューラル機械翻訳と知識グラフ推論の学習を同時に行った。 しかし Zhao らの手法はニューラル機械翻訳と知識グラフ推論の学習を同時に行っているため, 新たな言語対に対するモデルを学習する際, ニューラル機械翻訳モデルだけでなく, 知識グラフ埋め込みも再度学習する必要がある. よって Zhao らの手法で $N$ 言語間の多言語機械翻訳を行おうとすると, 知識グラフ推論の学習を $N(N-1)$ 回行うことになる. そのため, Zhao らの手法は学習コストが高い上にニューラル機械翻訳と知識グラフ推論モデルを組み合わせることは容易ではない. ## 3 知識グラフ埋め込みを利用した ニューラル機械翻訳の改良 本研究では KG-NMT を発展させ, エンティティをタグに置き換える手法と知識グラフ埋め込みの作成時にエンティティのサブワードに基づいて学習し he's gonna shack up at auberge du soleil. subworded he's gonna sh ack up at au ber ge du sole il . 図 2 Subworded KG-NMT の手続きの概要 た知識グラフ埋め込みをニューラル機械翻訳に注入する手法の 2 種類を提案する. ## 3.1 KG-NMT におけるエンティティの抽象化 KG-NMT の問題を解決するために,本研究では KG-tag NMT を提案する. KG-tag NMT は未知語処理の手法である Back-off モデル $[18,19]$ を参考にし, データセット内の該当するエンティティに知識グラフに基づく埋め込みの情報を注入後, そのエンティティを特殊タグに置き換える。具体的な手続きの例を図 1 に示す. 図 1 のように知識グラフを注入後, <entity>という特殊なタグに置き換える. KG-tag NMT では知識グラフ情報を注入後にサブワード化が行えるため, KG-NMT の課題である語彙数を削減できる. しかし KG-tag NMT では依然として $V(D) \cap V(K)$ 内のエンティティしか扱えない. ## 3.2 サブワードに基づく知識グラフ埋め 込み サブワードに基づく知識グラフ埋め込みを行うために Subworded KG-NMT を提案する. Subworded KG-NMT はすべてのエンティティを扱うために,知識グラフ内のエンティティ $V(K)$ のサブワード化を行う. サブワード化した知識グラフの埋め込み表現を作成する方法として Transformer [17] を使用する. 知識グラフ推論を seq 2 seq の枠組みで行い,作成された埋め込み表現を知識グラフ埋め込みとする。エンティティ $h, t$ を SentencePiece [4] を用いてサブワー ド化したあと, $h$ と $r$ が与えられた際に $t$ を推論するタスクを, $h$ と $r$ を原言語の入力文として $t$ を目的言語の出力文を得るタスクとみなす.知識グラフ 表 1 BLEUによる各モデルの比較 $K$ が与えられた際の損失関数は式 (1) となる. $ L\left(K ; \theta_{e}, \theta_{d}\right)=\sum_{(e, r, t) \in K} \log p\left(t \mid h, r ; \theta_{e}, \theta_{d}\right) $ ここで, $\theta_{e}$ と $\theta_{d}$ はそれぞれエンコーダとデコーダのパラメータである. エンティティをサブワード化することにより,知識グラフ $K$ に含まれないエンティティに対しても埋め込みを得ることができる.またニューラル機械翻訳と知識グラフ埋め込みのエンティティの対応付けはサブワード単位で行う.Subworded KG-NMT の具体的な手続きの例を図 2 に示す. 図 2 のようにサブワード化した知識グラフ埋め込みをニューラル機械翻訳に注入することで,エンティティ $D$ に対する知識グラフの注入量を向上させる.知識グラフ埋め込みの注入手法は KG-NMT [5] に倣う。 知識グラフ埋め込みをサブワード化する手法は Zhao らの手法 [15] と似ているが,Zhao らは知識グラフ推論とニューラル機械翻訳を同時に学習することによって,知識グラフをニューラル機械翻訳に活用した。一方, Subworded KG-NMT では知識グラフ推論とニューラル機械翻訳をそれぞれ独立して学習している. Subworded KG-NMT はニューラル機械翻訳と知識グラフ推論を独立して学習するため, 新たな目標言語へのニューラル機械翻訳を学習する際に,以前学習した知識グラフ埋め込みの再利用が可能となる。そのため $N$ 言語間の多言語機械翻訳を行うときは Subworded KG-NMT では知識グラフの学習を $N$ 回行うだけでよい.この利点はZhao らの手法 [15] の欠点を補っている. ## 4 実験 ## 4.1 実験設定 実験は英独翻訳を対象とし,訓練データとして JRC-Acquis3.0と Europarl を用い, 検証用データに WMT の newstest2011, テストデータに WMT の newstest2012 から 2018 までを用いた。知識グラフは英語版の DBpedia [20]を用いた。また訓練データ に WMT2017,検証用データに newstest2016,テストデータに newstest2017を用いることにより同一ドメイン内での翻訳についても評価を行った。 Transformer の実装には fairseq ${ }^{1)}$ と OpenNMT-py ${ }^{2)}$ を用いた。またサブワード化には SentencePiece[4] 3) を用いた. SentencePieceの学習にはニューラル機械翻訳の訓練データを用いた。また知識グラフ中のエンティティに対するサブワード化と訓練データに対するサブワード化は同じ SentencePiece のモデルを使用した。知識グラフ埋め込みは Transformer を用いて作成した. NER は spaCy ${ }^{4)}$ を使用し, DBpedia 内のエンティティを辞書として用いた。 既存研究のベースラインとして Transformer [17] と KG-NMT [5] を用いた。なお KG-NMT についてサブワード化してしまうと, エンティティに知識グラフ情報を注入することができなくなるため,サブワード化は行わなかった。評価には SacreBLEU $[21]^{5)}$ を用いた。 ## 4.2 実験結果 表 1 に実験結果を示す. 2 つの提案手法はすべてのテストデータに対して KG-NMT より BLEU スコアが向上している。これは KG-NMT では行えなかったサブワード化が提案手法では可能になったことより,未知語として処理される単語数が減少したため BLEU スコアが上昇したと考えられる.KG-tag NMT では KG-NMT の手法を改良し,エンティティをタグに置き換えることでサブワード化を行えるようにした。そのため, Transformer と同等の精度を保ちつつ, $V(K) \cap V(D)$ エンティティについては知識グラフを活用することができるため,BLEU スコアが向上したと考えられる。 一方 Subworded KG-NMT では,翻訳の訓練データ中のエンティティ $V(D)$ と知識グラフ中のエンティ  表 2 テストセットのエンティティ $V(D)$ に対する ティ $V(K)$ が完全に一致していなくてもサブワー ド単位で一致していれば知識グラフ埋め込み情報を注入できる。そのためエンティティ $V(D)$ に対して知識グラフを注入可能な範囲が拡大するので, KG-tag NMT よりも多くの知識グラフをニューラル機械翻訳に注入することができる。このことから全体としての知識グラフの注入量が向上した結果, Subworded KG-NMT の BLEU スコアが向上したと考えられる。 ## 4.3 エンティティの分析 提案手法と Transformer [17] の BLEU スコアを比較すると, KG-tag NMT ではスコアの向上は見られるものの,知識グラフ埋め込みを注入したことにより, むしろスコアが低下しているテストデータが存在している。そこで KG-tag NMT によってエンティティ $V(K)$ とエンティティ $V(D)$ の対応付けが行えたエンティティ $V(K) \cap V(D)$ の数を調べた. その結果を表 2 に示す. 表 2 よりエンティティ $V(K) \cap V(D)$ はエンティティ $V(D)$ の 1 2\%ほどしか存在していないことがわかる。また既存手法の KG-NMT と Transformer を比較すると, $V(K) \cap V(D) / V(D)$ の割合によって BLEU スコアの差が大きくなる傾向がある.これは KG-NMT がサブワード化を行うことによって OOV 問題を解決するのではなく, 知識グラフを用いて OOV 問題の解決を図っていることに起因している。そのため知識グラフの注入量と翻訳品質には相関があると考えられる。 ## 5 Transformer による知識グラフ推論の精度 Transformer による知識グラフ推論の精度について考察するための実験を行った。知識グラフ推論用データセットに YAGO3-10 [22] を使用し,知識グラフ推論の比較対象モデルを ConvKB [6] と ComplEx [7] とした. Transformerによる知識グラフ推論では表 3 知識グラフ推論精度の比較 エンティティのサブワード化の有無による比較も行った。実験結果を表 3 に示す。 HITS@T はそれぞれ推論したエンティティのうち上位 $T$ 番目以内に正解エンティティが含まれる割合を示している。表 3 の結果より, seq2seq での知識グラフ推論はエンティティをサブワード化しない場合,既存手法である ConvKB [6] や ComplEx [7] と同等の性能であることがわかった。またサブワード化を行った場合でも,上位 10 位以内に正解エンティティが含まれる割合が 3 割ほどあり,サブワード化を行っても知識グラフを学習できているといえる. そのため Transformerによる seq2seq での知識グラフ推論は有効であるといえる。 知識グラフ推論の既存手法ではデータセット中に含まれていない未知のエンティティを推論することができないが,サブワード化し, seq2seq で知識グラフ推論を行った場合エンティティを生成するため,未知のエンティティを推論することができる利点がある. そのため, 潜在的に $U-(V(D) \cup V(K))$ に対しても知識グラフ情報を学習していると予測できるので,今後その予測を検証していく。 ## 6 まとめ 本研究ではニューラル機械翻訳の品質向上を目的とし, OOV 問題に対処するために知識グラフを注入する手法を 2 種類提案した. 実験を行った結果,提案手法では BLEU スコアが既存手法よりも向上していることを確認した。また知識グラフの注入量によって翻訳精度が変化するため, 単言語データである知識グラフの注入量を増やすことにより,翻訳精度が向上する可能性があることがわかった。さらに seq2seqによる知識グラフ推論の有用性も確認した. その結果, 未知のエンティティに対する推論可能性をもちつつ, 既存手法と同等の精度で推論することができた,今後の課題として,多言語ニューラル機械翻訳への適用を予定している。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Minh-Thang Luong and Christopher D. Manning. Achieving open vocabulary neural machine translation with hybrid word-character models. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1054-1063, Berlin, Germany, August 2016. [3] Junyoung Chung, Kyunghyun Cho, and Yoshua Bengio. A character-level decoder without explicit segmentation for neural machine translation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1693-1703, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Taku Kudo and J. Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In $E M N L P, 2018$. [5] Diego Moussallem, Axel-Cyrille Ngonga Ngomo, Paul Buitelaar, and Mihael Arcan. Utilizing knowledge graphs for neural machine translation augmentation. K-CAP '19, page 139-146, New York, NY, USA, 2019. Association for Computing Machinery. [6] Dai Quoc Nguyen, Tu Dinh Nguyen, Dat Quoc Nguyen, and Dinh Phung. A novel embedding model for knowledge base completion based on convolutional neural network. In Proceedings of the 16th Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pages 327-333, 2018. [7] C. Demir and Axel-Cyrille Ngonga Ngomo. Convolutional complex knowledge graph embeddings. ArXiv, abs/2008.03130, 2020. [8] Wenhan Xiong, Thien Hoang, and William Yang Wang. DeepPath: A reinforcement learning method for knowledge graph reasoning. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 564-573, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [9] Deepak Nathani, Jatin Chauhan, Charu Sharma, and Manohar Kaul. Learning attention-based embeddings for relation prediction in knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Coтputational Linguistics. Association for Computational Linguistics, 2019. [10] Rui Wang, Bicheng Li, Shengwei Hu, Wenqian Du, and Min Zhang. Knowledge graph embedding via graph attenuated attention networks. IEEE Access, PP:1-1, 122019. [11] Antoine Bordes, Nicolas Usunier, Sumit Chopra, and Jason Weston. Large-scale simple question answering with memory networks. CoRR, abs/1506.02075, 2015. [12] Fuzheng Zhang, Nicholas Jing Yuan, Defu Lian, Xing Xie, and Wei-Ying Ma. Collaborative knowledge base embedding for recommender systems. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '16, page 353-362, New York, NY, USA, 2016. Association for Computing Machinery. [13] Yang Zhao, Jiajun Zhang, Yu Zhou, and Chengqing Zong. Knowledge graphs enhanced neural machine translation. In Christian Bessiere, editor, Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20, pages 4039-4045. International Joint Conferences on Artificial Intelligence Organization, 7 2020. Main track. [14] Yu Lu, Jiajun Zhang, and Chengqing Zong. Exploiting knowledge graph in neural machine translation. In Jiajun Chen and Jiajun Zhang, editors, Machine Translation, pages 27-38, Singapore, 2019. Springer Singapore. [15] Yang Zhao, Lu Xiang, Junnan Zhu, Jiajun Zhang, Yu Zhou, and Chengqing Zong. Knowledge graph enhanced neural machine translation via multi-task learning on sub-entity granularity. In Proceedings of the 28th International Conference on Computational Linguistics, pages 4495-4505, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [16] Rico Sennrich and Barry Haddow. Linguistic input features improve neural machine translation. In Proceedings of the First Conference on Machine Translation: Volume 1, Research Papers, pages 83-91, Berlin, Germany, August 2016. Association for Computational Linguistics. [17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31 st International Conference on Neural Information Processing Systems, NIPS'17, page 6000-6010, Red Hook, NY, USA, 2017. Curran Associates Inc. [18] S. Jean, Kyunghyun Cho, R. Memisevic, and Yoshua Bengio. On using very large target vocabulary for neural machine translation. ArXiv, abs/1412.2007, 2015. [19] Thang Luong, Ilya Sutskever, Quoc Le, Oriol Vinyals, and Wojciech Zaremba. Addressing the rare word problem in neural machine translation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 11-19, Beijing, China, July 2015. Association for Computational Linguistics. [20] Sören Auer, Christian Bizer, Georgi Kobilarov, Jens Lehmann, Richard Cyganiak, and Zachary Ives. Dbpedia: A nucleus for a web of open data. In The Semantic Web, pages 722-735, Berlin, Heidelberg, 2007. Springer Berlin Heidelberg. [21] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pages 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [22] F. Mahdisoltani, J. Biega, and Fabian M. Suchanek. Yago3: A knowledge base from multilingual wikipedias. In CIDR, 2015 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-13.pdf
# エンコーダ・デコーダの学習に効果的な摂動の調査 高瀬 翔 東京工業大学 sho.takase@nlp.c.titech.ac.jp } 清野 舜 理化学研究所 / 東北大学 shun.kiyono@riken.jp ## 1 はじめに 機械翻訳や要約,文法誤り訂正などの系列変換夕スクにおいて,エンコーダ・デコーダモデルは目覚ましい性能を達成している $[1,2,3]$. ニューラルモデルの表現力は極めて高いため,過学習を防ぐために,ドロップアウトを始めとして,様々な正則化手法が提案されてきた [4]. ニューラルモデルの正則化のために,元々の入力に対して,摂動と呼ばれる微小な変化を加えた事例の使用が提案されている $[5,6]$. 学習に摂動を用いた際は,摄動を加えた事例と加えていない事例のいずれに対しても,正確なラベルを予測するよう,モデルを学習する.系列変換タスクにおいては,入力文内のトークンの一部を別のトークンに置換したものと,埋め込み空間において微小なノイズを加えたものという,2 種類の摄動事例が用いられている [7, 8]. 例えば Bengio ら [9] はスケジュールドサンプリングという,デコーダの出力確率分布を元にトークンをサンプリングし,これを摂動としてデコーダの入力に用いる手法を提案した. Sato ら [8] は,モデルの損失を大きくする敵対的摂動をエンコーダ・デコーダの埋め込み空間に適用している。 これらの研究は提案手法によって,頑健なエンコーダ・デコーダモデルが構築できたと報告している. 一方で,これらの手法は摂動を計算するために,最低一回は前向き計算を行わなければならないため,摂動を用いず,単純にエンコーダ・デコーダを学習する場合と比べて,学習に多大な時間を要する. 実際,スケジュールドサンプリングにおいては,用いる摂動の個数と同じ回数デコーダを計算しなければならない.また,敵対的事例を用いる場合には,勾配を用いて摄動を計算するため,前向き計算に加えて,誤差逆伝播を行う必要がある $[9,8]$. 学習に多大な時間を要する性質は, 学習に要する費用の増大につながる.例えば,Transformer (big) [10] モデルについて,広く使われている,WMT 図 1 本研究で用いる摂動の概要. 各摂動は独立なので,本図のように組み合わせることが可能. 英-独の訓練データを用い [11],AWS のインスタンス上で,敵対的摂動 [8] を用いて学習する場合,約 18 万円必要である.性能向上のためには,ハイパー パラメータの探索はもちろん,複数モデルを用いたアンサンブルを行うことも多々あり [12],上記のような摂動を用いた学習では莫大な費用がかかってしまう. Strubell ら [13] や Schwartz ら [14] は近年のニューラルモデルの学習は計算量が増大しており,計算量に比して効率的な手法を探る必要を示唆した. 例えば,Li ら [15] は定められた時間の中で, もっとも良いモデルを得る戦略を調査している。しかしながら,摂動を用いた学習については,注意が払われていない。 そこで本研究では,摂動を用いたエンコーダ・デコーダの学習において,時間的に効率の良い手法を探る. 単語ドロップアウト [16] やランダムに入力トークンを置換して摂動事例とする手法のように,計算量の小さな手法も含めて比較を行う.このような計算量の小さな手法は,既存研究においてはべー スラインとして用いられていることもあるが [9],多大な計算時間を要する手法 $[9,8]$ と比較して,短い時間で同等の性能を達成できる,すなわち,時間的効率が良いことが実験を通して明らかになった。 ## 2 エンコーダ・デコーダ 本研究ではエンコーダ・デコーダを用いて,機械翻訳のような系列変換タスクに取り組む。本節では エンコーダ・デコーダの定義を概説する。 系列変換タスクでは,エンコーダ・デコーダは入力系列に対応した系列を生成する. 長さ $I$ の入力トークン列および長さ $J$ の出力トークン列をそれぞれ $\boldsymbol{x}_{1: I}, \boldsymbol{y}_{1: J}$ とすると, エンコーダ・デコーダは次の条件付き確率を計算する: $ p(\boldsymbol{Y} \mid \boldsymbol{X})=\prod_{j=1}^{J+1} p\left(y_{j} \mid \boldsymbol{y}_{0: j-1}, \boldsymbol{X}\right) $ ここで, $y_{0}$ おび $y_{J+1}$ はそれぞれ文頭,文末を示す特殊なトークンとし, $X=x_{1: I}, Y=y_{1: J+1}$ とする. 学習においては,訓練データにおける負の対数尤度を最小化するパラメータ $\boldsymbol{\theta}$ を探す. $\boldsymbol{X}_{n}$ と $\boldsymbol{Y}_{n}$ という,対応する系列のペアを含む訓練データを $D$ とする, すなわち, $\mathscr{D}=\left.\{\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right)\right.\}_{n=1}^{|D|}$ とすると,次の損失関数を最小化するように学習を行う. $ \mathscr{L}(\boldsymbol{\theta})=-\frac{1}{|\mathscr{D}|} \sum_{(\boldsymbol{X}, \boldsymbol{Y}) \in \mathscr{D}} \log p(\boldsymbol{Y} \mid \boldsymbol{X} ; \boldsymbol{\theta}) $ ## 3 摂動 本節では,本研究で用いる,置換,単語ドロップアウト,敵対的摂動の 3 種類の摄動を概説する. 図 1 に示したように,これらの摂動は独立な手法なので,組み合わせることも可能であり,実際に,実験では置換と単語ドロップアウトの組み合わせも用いる. ## 3.1 置換 スケジュールドサンプリング [9] のように,本来の入力トークンをサンプリングしたトークンに置き換える手法を,本研究では置換と呼ぶ. 置換では,入力系列 $\boldsymbol{X}$ 内のトークン $x_{i}$ について,ある分布 $Q_{x_{i}}$ からサンプリングしたトークン $\hat{x}_{i}$ と確率 $\alpha$ で置き換えることで,新たな入力系列 $\boldsymbol{X}^{\prime}$ を構築する。 $ \begin{aligned} \hat{x}_{i} & \sim Q_{x_{i}}, \\ x_{i}^{\prime} & = \begin{cases}x_{i} & \text { 確率 } \alpha \\ \hat{x}_{i} & \text { 確率 } 1-\alpha .\end{cases} \end{aligned} $ 同様にして,Y から $\boldsymbol{Y}^{\prime}$ を構築する. Bengio ら [9] はカリキュラム学習の発想で, 学習が進むにつれ,徐々に $\alpha$ が減少するような関数を用いた.この関数により, 学習初期では正しい入力トークンを頻繁に用い,学習後期ではサンプリングしたトークンを頻繁に用いるようになる. 本研究で も同様な関数を用いて $\alpha$ の計算を行う. $ \alpha_{t}=\max \left(q, \frac{k}{k+\exp \left(\frac{t}{k}\right)}\right) $ ここで $q$ と $k$ はハイパーパラメータである. 上記の式により, $\alpha_{t}$ は 1 から $q$ まで,学習ステップ $t$ に依存して減少していく.この $\alpha_{t}$ を各ステップにおける $\alpha$ として用いる. 分布 $Q_{x_{i}}$ については, 条件付き確率, 一様分布,類似度の 3 種類を用いる。 条件付き確率: $\operatorname{REP}(\mathbf{S S})$ Bengio ら [9] は訓練時と推論時における差異に対処するため,スケジュールドサンプリングを提案した. スケジュールドサンプリングは次の条件付き確率を $Q_{y_{i}}$ として用いる. $ p\left(\hat{y}_{i} \mid \boldsymbol{y}_{0: i-1}^{\prime}, \boldsymbol{X}\right) $ スケジュールドサンプリングはデコーダ側の摄動を計算する手法であり, $Q_{x_{i}}$ に対応する関数はなく, エンコーダ側の入力については手を加えない. 元来のスケジュールドサンプリングはデコーダ側のトークン数分デコーダの前向き計算を行う必要があり,デコーダ側の入力系列長に比例した計算時間を要する。これに対処するため,Duckworth ら [17] はデコーダ側の全入力に対応する条件付き確率を 1 度に計算してしまう,並列化したスケジュールドサンプリングを提案した.この並列化したスケジュー ルドサンプリングは時間的効率が良いと報告されているため,本研究ではこれを用いる。 一様分布:REP(UNI) 並列化したスケジュールドサンプリングを用いたとしても,式(6)を計算するために,最低 1 回はデコーダの前向き計算を行わなければならない.より時間的効率の良い摂動を探るために, 本研究では一様分布と類似度という 2 種類の高速な摂動の計算手法との比較を行う。一様分布 (ReP(UnI))はその名の通り,各語彙における一様分布を $Q_{x_{i}}$ や $Q_{y_{i}}$ として用いる. 例えばエンコーダ側の摂動事例を得るために,エンコーダ側の語彙からランダムに 1 つサンプリングし, 式 (4) の $\hat{x}_{i}$ として用いる. 本手法は既存研究においてべースラインとしても用いられている手法である [9]. 類似度: $\boldsymbol{R E P}($ SIM) 式 (6) の条件付き確率は, 元々の入力トークンに似たトークンに対して高い確率を付与していると考えられる. このため,一様分布よりも摂動として適したトークンを得る手法として,似たトークンに高い確率を付与している分布を考える. エンコーダ側の語彙を $\mathscr{V}_{x}$, エンコーダ側の埋 め込み表現(次元数は $d_{x}$ )を $\boldsymbol{E}_{x} \in \mathbb{R}^{\left|\mathscr{V}_{x}\right| x d_{x}}$ ,トークン $x_{i}$ に対応する埋め込み表現を $\boldsymbol{e}\left(x_{i}\right)$ と表すとしたとき,次の確率分布を $Q_{x_{i}}$ として用いる. $ \operatorname{softmax}\left(\boldsymbol{E}_{x} \boldsymbol{e}\left(x_{i}\right)\right), $ ここで, $\operatorname{softmax}($.$) はソフトマックス関数である.$ すなわち,式(7)は $\boldsymbol{e}\left(x_{i}\right)$ に似た埋め込み表現に高い確率を付与する。言い換えれば,式(7)は文脈を考慮していない場合の, $x_{i}$ の類似トークンに高い確率を付与する。デコーダ側についても, $\boldsymbol{e}\left(y_{i}\right)$ を用いて同様に計算する。 ## 3.2 単語ドロップアウト:WDROP 単語ドロップアウトは入力トークン $x_{i}$ について, ランダムに,埋め込み表現 $\boldsymbol{e}\left(x_{i}\right)$ の代わりに,ゼロベクトルを摂動として用いる [16]. $ \begin{aligned} b_{x_{i}} & \sim \operatorname{Bernoulli}(\beta), \\ \operatorname{WDrop}\left(x_{i}, b_{x_{i}}\right) & =b_{x_{i}} \boldsymbol{e}\left(x_{i}\right), \end{aligned} $ ここで, $\operatorname{Bernoulli}(\beta)$ は確率 $\beta$ で 1 を返し,それ以外に 0 を返す関数である。すなわち, $\operatorname{WDrop}\left(x_{i}, b_{x_{i}}\right)$ は $\beta$ で $\boldsymbol{e}\left(x_{i}\right)$ を,それ以外にゼロベクトルを返す関数である. 式(9)を入力系列の各トークンに適用し,得られた系列を摂動事例として用いる。 ## 3.3 敵対的摂動:ADV Miyato ら [6] は埋め込み空間において敵対的摄動を計算する手法を提案した。この手法では,元々の入力トークンを別のものと置き換えるのではなく,入力トークンの埋め込み表現に敵対的摄動を加える. Sato ら [8] は本手法をエンコーダ・デコーダに適用し,性能向上を報告しており,本研究はこれにならって敵対的摂動を計算する。 敵対的摄動,すなわち,損失の値に深刻な悪影響を及ぼす摂動は損失関数 $\mathscr{L}(\boldsymbol{\theta})$ の勾配を元に計算する. 入力トークン $x_{i}$ についての敵対的摄動を $\boldsymbol{r}_{x_{i}} \in \mathbb{R}^{d_{x}}$ としたとき, 敵対的摂動を適用した埋め込み表現 $\boldsymbol{e}^{\prime}\left(x_{i}\right)$ は次式で計算する。 $ \begin{aligned} \boldsymbol{e}^{\prime}\left(x_{i}\right) & =\boldsymbol{e}\left(x_{i}\right)+\boldsymbol{r}_{x_{i}} \\ \boldsymbol{r}_{x_{i}} & =\epsilon \frac{\boldsymbol{c}_{x_{i}}}{\left.\|\boldsymbol{c}_{x_{i}}\right.\|} \\ \boldsymbol{c}_{x_{i}} & =\nabla_{\boldsymbol{e}\left(x_{i}\right)} \mathscr{L}(\boldsymbol{\theta}) \end{aligned} $ ここで, $\epsilon$ は敵対的摄動のノルムを調整するハイパーパラメータである. この式を入力系列のすべてのトークンに適用することで,摄動事例を得る. ## 3.4 学習 置換や単語ドロップアウトを用いた場合の学習としては,摄動事例から正しい系列を予測するよう学習する。例えば,置換を用いた際は,次の負の対数尤度を最小化する。 $ \begin{aligned} \mathscr{L}^{\prime}(\boldsymbol{\theta}) & =-\frac{1}{|\mathscr{D}|} \sum_{\mathscr{D}} \log p\left(\boldsymbol{Y} \mid \boldsymbol{X}^{\prime}, \boldsymbol{Y}^{\prime} ; \boldsymbol{\theta}\right), \\ & =-\frac{1}{|\mathscr{D}|} \sum_{\mathscr{D}} \sum_{j=1}^{J+1} \log p\left(y_{j} \mid \boldsymbol{y}_{0: j-1}^{\prime}, \boldsymbol{X}^{\prime} ; \boldsymbol{\theta}\right) . \end{aligned} $ 敵対的摄動を用いた場合には,既存研究にならい $[18,8]$ ,一度行った前向き計算を利用し,元の損失関数と敵対的摂動を用いて計算した損失 $\mathscr{A}(\boldsymbol{\theta})$ の合計を最小化する。 $ \mathscr{F}(\boldsymbol{\theta})=\mathscr{L}(\boldsymbol{\theta})+\lambda \mathscr{A}(\boldsymbol{\theta}), $ ここで, $\lambda$ はつの損失関数を釣り合わせるためのハイパーパラメータである. $\mathscr{A}(\boldsymbol{\theta})$ としては,元の入力に対する出力確率分布を正例とする。すなわち, $ \mathscr{A}(\boldsymbol{\theta})=\frac{1}{|\mathscr{D}|} \sum_{\mathscr{D}} \operatorname{KL}(p(\cdot \mid \boldsymbol{X} ; \boldsymbol{\theta}) \| p(\cdot \mid \boldsymbol{X}, \boldsymbol{r} ; \boldsymbol{\theta})), $ ここで, $\boldsymbol{r}$ は各入力トークンに対する敵対的摂動をつなぎ合わせたべクトルとし,KL($\cdot$\|$\cdot$) はカルバック・ライブラー情報量とする. ## 4 機械翻訳における実験 系列変換における代表的なタスクとして,翻訳タスクでの実験を行う1),広く使用されているデータセットとして,WMT 英-独データセットを用いる。具体的には,Ott ら [11] と同じ前処理を行った,450 万文対を訓練データとして用い,newstest2010-2016 で性能を評価する。性能評価には,SacreBLEU [19] を用いて BLEU を計算する。 エンコーダ・デコーダとしては Transformer [10] の big 設定を用いる. 実装は fairseqを元に行っ $た^{2)}$. 各ハイパーパラメータについては, $q=0.9$, $k=1000, \beta=0.9$ とし, ADv については,既存研究 [8] と同じ値を使用した. 学習ステップ数は全ての手法で 50,000とした. ## 4.1 結果 摄動なしの Transformer(w/o perturbation)および各摄動を用いた際の BLEU 値を表 1 に示す。なお,  2) https://github.com/pytorch/fairseq 表 1 newstest2010-2016での BLEU 値,それらの平均値,摂動なしの Transformer 基準とした際の各手法での計算速度. & 24.22 & 22.11 & 22.69 & 26.60 & 28.46 & 30.50 & 33.58 & 26.88 & $\times 1.00$ \\ (a) NLL (b) BLEU (c) 摂動なしの Transformer の BLEU値に到達するまでの時間 図 2 newstest 2013 での負の対数尤度(NLL),BLEU 値,摂動なしの Transformer の BLEU 值に到達するまでの時間. 表 1 に記したように,デコーダ側の摂動計算手法である $\operatorname{ReP}(\mathrm{SS})$ 以外はエンコーダ側,デコーダ側の両方に摂動を適用した.BLEU 值に加えて,表 1 は摂動なしの Transformerを基準とし,各摂動を用いた際の計算速度を示している. また,高速な手法である WDroP, $\operatorname{Rep}(\mathrm{UnI}), \operatorname{Rep}(\operatorname{Sim})$ については,組み合わせた際の結果も記した。 まず,摄動なしの Transformer は newstest 2014 において, 28.46 と既存研究 [10] と同程度の BLEU 值を達成しており,強いべースラインとみなして良いと考えられる.BLEU の平均値において,摂動を用いた全ての手法が摂動なしの場合よりも高い値を達成しており,攝動を用いることで,エンコーダ・デコーダの性能が向上することが分かる. 加えて, 素朴な手法である WDROP, $\operatorname{Rep}\left(\mathrm{UnI}^{2}\right), \operatorname{ReP}\left(\mathrm{Sim}_{\mathrm{Im}}\right)$, およびその組み合わせは,既存研究で優れているとされていた Adv や ReP(SS) に対し $[9,8]$, 計算速度も速く,BLEU 值でも上回っている. 図 2 は訓練時間に対する, 各手法での newstest 2013 における負の対数尤度 (a),BLEU 値 (b),および,摂動なしの Transformer の学習修了時の BLEU 値に到達するまでの時間(c)を示している,図 (a) (b) より, 学習の早い段階で, WDROP, $\operatorname{REP}(U N I)$, $\operatorname{REP(SIM)}$ は摂動なしの Transformer よりも良い負の対数尤度と BLEU 值に到達していることが分かる。 さらに, 図の(c)から,これらの手法は摂動なしの Transformer 最終的な BLEU 值を, REP(SS) や ADv,摂動なしの場合よりも高速に達成していることが分かり,特に,ADvよりも2 倍高速である。これらの結果から, WDROP, $\operatorname{REP}(\mathrm{UnI}), \operatorname{ReP}(\operatorname{Sim})$ およびその組み合わせは,時間的効率の良い摂動と言える。 ## 5 おわりに 本研究では,エンコーダ・デコーダに様々な摂動を適用し,系列変換タスクにおいて,時間的効率の良い摄動を調査した。既存研究では,スケジュールドサンプリングや敵対的摄動の有用性が報告されていたが $[9,20,8]$, 本研究の設定においては, 単語ドロップアウト [16] のような単純な手法がこれらと同等の性能を高速に達成可能であることを示した. この結果から,エンコーダ・デコーダに摂動を適用する際は,まずは単純な手法を試すことを勧めたい。実際に頑健なモデルを構築するため,摄動を選択する際に,また,これからの摂動に関する研究の実験的な比較において,本研究が一助となれば幸いである. ## 参考文献 [1]Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to Sequence Learning with Neural Networks. In Advances in Neural Information Processing Systems 27 (NIPS), pp. 3104-3112, 2014. [2]Alexander M. Rush, Sumit Chopra, and Jason Weston. A Neural Attention Model for Abstractive Sentence Summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 379-389, 2015. [3]Jianshu Ji, Qinlong Wang, Kristina Toutanova, Yongen Gong, Steven Truong, and Jianfeng Gao. A nested attention neural hybrid model for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 753-762, 2017 [4]Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research (JMLR), Vol. 15, No. 56, pp. 1929-1958, 2014. [5]Ian Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples. In Proceedings of the $3 \mathrm{rd}$ International Conference on Learning Representations (ICLR), 2015. [6]Takeru Miyato, Andrew M. Dai, and Ian Goodfellow. Adversarial training methods for semi-supervised text classification. In Proceedings of the 5th International Conference on Learning Representations (ICLR), 2017. [7]Yong Cheng, Lu Jiang, and Wolfgang Macherey. Robust neural machine translation with doubly adversarial inputs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 4324-4333, 2019. [8]Motoki Sato, Jun Suzuki, and Shun Kiyono. Effective adversarial regularization for neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 204-210, 2019. [9]Samy Bengio, Oriol Vinyals, Navdeep Jaitly, and Noam Shazeer. Scheduled sampling for sequence prediction with recurrent neural networks. In Advances in Neural Information Processing Systems 28 (NIPS), pp. 1171-1179. 2015 [10]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30 (NIPS), pp. 5998-6008. 2017. [11]Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling neural machine translation. In Proceedings of the Third Conference on Machine Translation (WMT), pp. 1-9, 2018. [12]Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 conference on machine translation (WMT19). In Proceedings of the Fourth Conference on Machine Translation (WMT), pp. 1-61, 2019. [13]Emma Strubell, Ananya Ganesh, and Andrew McCallum. Energy and policy considerations for deep learning in NLP. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3645-3650, 2019. [14]Roy Schwartz, Jesse Dodge, Noah A. Smith, and Oren Etzioni. Green AI. CoRR, Vol. abs/1907.10597, , 2019. [15]Zhuohan Li, Eric Wallace, Sheng Shen, Kevin Lin, Kurt Keutzer, Dan Klein, and Joseph E. Gonzalez. Train large, then compress: Rethinking model size for efficient training and inference of transformers. In Proceedings of the 37th International Conference on Machine Learning (ICML), pp. 11432-11442, 2020. [16]Yarin Gal and Zoubin Ghahramani. A theoretically grounded application of dropout in recurrent neural networks. In Advances in Neural Information Processing Systems 29 (NIPS), pp. 1019-1027. 2016. [17]Daniel Duckworth, Arvind Neelakantan, Ben Goodrich, Lukasz Kaiser, and Samy Bengio. Parallel scheduled sampling. CoRR, 2019. [18]Takeru Miyato, Shin ichi Maeda, Masanori Koyama, Ken Nakae, and Shin Ishii. Distributional smoothing with virtual adversarial training. In Proceedings of the 4th International Conference on Learning Representations (ICLR), 2016. [19]Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation (WMT),pp. 186-191, 2018. [20]Wen Zhang, Yang Feng, Fandong Meng, Di You, and Qun Liu. Bridging the gap between training and inference for neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 4334-4343, 2019. [21]Shun Kiyono, Jun Suzuki, Tomoya Mizumoto, and Kentaro Inui. Massive exploration of pseudo data for grammatical error correction. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 2134-2145, 2020. [22]Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, 2019. [23]Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL2014 Shared Task on Grammatical Error Correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning (CoNLL), pp. 1-14, 2014. [24]Mariano Felice, Christopher Bryant, and Ted Briscoe. Automatic Extraction of Learner Errors in ESL Sentences Using Linguistically Enhanced Alignments. In Proceedings of the 26th International Conference on Computational Linguistics (COLING), pp. 825-835, 2016. [25]Daniel Dahlmeier and Hwee Tou Ng. Better Evaluation for Grammatical Error Correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), pp. 568-572, 2012. [26]Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou, and Hsiao-Wuen Hon. Unified language model pre-training for natural language understanding and generation. In Advances in Neural Information Processing Systems (NeurIPS), pp. 13063-13075, 2019. [27]Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. Mass: Masked sequence to sequence pre-training for language generation. In International Conference on Machine Learning (ICML), pp. 59265936, 2019. [28]Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter J. Liu. Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. In Proceedings of the 37th International Conference on Machine Learning (ICML), 2020. [29]Weizhen Qi, Yu Yan, Yeyun Gong, Dayiheng Liu, Nan Duan, Jiusheng Chen, Ruofei Zhang, and Ming Zhou. ProphetNet: Predicting future n-gram for sequence-to-SequencePre-training. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2401-2410. [30]Courtney Napoles, Matthew Gormley, and Benjamin Van Durme. Annotated Gigaword. In Proceedings of the Joint Workshop on Automatic Knowledge Base Construction and Web-scale Knowledge Extraction (AKBC-WEKEX), pp. 95-100, 2012. [31]Sho Takase and Naoaki Okazaki. Positional encoding to control output sequence length. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT), pp. 3999-4004, 2019. [32]Rowan Zellers, Ari Holtzman, Hannah Rashkin, Yonatan Bisk, Ali Farhadi, Franziska Roesner, and Yejin Choi. Defending against neural fake news. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), pp. 9054-9065, 2019. 表 2 各手法の $\mathrm{F}_{0.5}$. また,摄動なしと同一の設定として,Kiyono ら [21] の報告値を掲載した. ## A 文法誤り訂正における実験 系列変換タスクとして,文法誤り訂正と生成的要約タスクでの実験を行う,文法誤り訂正の評価データとしては,広く用いられている,BEAデータセットの開発データとテストデータ [22],および, CoNLL-2014 のテストデータ(CoNLL) [23]を用いる. BEA については ERRANT [24] で計算した $\mathrm{F}_{0.5}$, CoNLL については $M^{2}$ [25] を評価に用いる. 既存研究 [21] にならい,疑似パラレルコーパスでエンコーダ・デコーダ(Transformer)を学習した後,摂動を用いたファインチューニングを BEA の訓練データ上で行う.各ハイパーパラメータについては,4節と同様の值を用いた。 ## A. 1 結果 表 2 に各手法での結果を示す.これらのスコアは,5つの異なるランダムシードを用いてファインチューニングを行い,その平均值である。加えて,本表には摂動なしと同一の設定として,Kiyono ら [21] の報告値を記している3). 表 2 より,BEA テストデータ(テスト)における $\operatorname{REP}\left(\mathrm{UnI}_{\mathrm{NI})}\right.$ と $\operatorname{ReP}\left(\mathrm{SIm}_{\mathrm{Im}}\right)$ を除き,摂動を用いる全ての手法が摂動なしのスコアを上回っていることが分かる。機械翻訳における実験と同様に,WDROP, およびこれと $\operatorname{ReP}(\mathrm{UNI}), \operatorname{ReP}(\mathrm{SIM})$ の組み合わせが ADv と同等の性能を達成している. これらの手法は $\operatorname{ReP}(\mathrm{SS})$ や ADv よりも計算が高速であることから,文法誤り訂正タスクにおいても,時間的な効率の良い手法であると言える. ## B 生成的要約における実験 生成的要約の評価データとして,広く用いられている, Annotated English Gigaword から抽出された, 3)表 2 の摂動なしの結果は Kiyono ら [21] と比べて僅かに低いが,これは学習におけるランダム性によるものと考えられる.表 3 Annotated English Gigaword テストデータにおける,各手法の ROUGE-1,2,L の $\mathrm{F}_{1}$ 值(R-1,R-2,R-L). 本表の下の部分は近年の研究における報告値である. 1951 の文と要約(正確には見出し文)のぺアからなるテストデータ $[30,2]$ を用いる. 訓練データとしては,既存研究 $[2,31]$ にならい, Annotated English Gigaword から抽出した 380 万の文と要約のペアを用いる。また,近年の生成的要約タスクでは,大規模コーパスで事前学習したエンコー ダ・デコーダを用いることも多く [26, 27, 28, 29], これらの研究にならい, REALNEWS [32] と News Crawl [12] から文と要約のペアを抽出し,訓練デー タとした。合計で,1700万の文と要約ペアを訓練データに用いた. 機械翻訳, 文法誤り訂正と同様, エンコーダ・デコーダには Transformer [10] を用い, ハイパーパラメータについては 4 節と同じ値を用いた.なお,敵対的摂動については,勾配が爆発してしまい,学習を安定させることができなかった. ランダムシードを変更して何度か学習を行ったが全て発散してしまい,また,ハイパーパラメータの探索を行うことも予算の都合上難しかったため,本実験においては,敵対的摂動は除くこととする。 ## B. 1 結果 表 3 に Annotated English Gigaword テストデータにおける,各手法の ROUGE-1,2,Lの $\mathrm{F}_{1}$ 值,および,近年の研究における報告値を示した $[26,27,28,29]$.表 3 より,機械翻訳や文法誤り訂正での結果と同じく,摂動を用いた全ての手法が摂動なしのスコアを上回っていることが分かる. WDROP, $\operatorname{ReP}\left(U_{N I}\right)$, $\operatorname{REP}(\operatorname{Sim})$ ,およびその組み合わせは $\operatorname{ReP}(\mathrm{SS})$ よりも高い ROUGE 值を達成している. これらは計算速度も高速であることから,生成的要約タスクにおいても,時間的効率の良い手法であることが伺える,加えて, $\operatorname{ReP}\left(\mathrm{UNI}^{2}\right)$ と WDROP はそれぞれ, ROUGE-1 と L,ROUGE-2 において,現状のトップスコア [29] りも高い値を達成している。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-14.pdf
# クラウドソーシングによる Web サイトマイニングを用いた 翻訳モデルの即時領域適応 森下 睦 1,2, 鈴木 潤 2, 永田 昌明 1 ${ }^{1}$ NTTコミュニケーション科学基礎研究所 2 東北大学 \{makoto.morishita.gr, masaaki.nagata.et\}@hco.ntt.co.jp jun.suzuki@ecei.tohoku.ac.jp ## 1 はじめに 2020 年は新型コロナウイルス感染症の流行により、正しい情報を迅速に収集し行動することが求められた。しかし、日本国内においては政府や自治体からの情報の大半は日本語により発信されたため、日本国内に滞在する非日本語話者にとっては最新の情報を受け取りにくい状況が生じていた。機械翻訳を用いて日本語を多言語に翻訳するケースも見受けられたが、特殊な用語が多く含まれる分野ゆえに十分な翻訳品質が得られない場合があった [1]。 このような状況で十分な翻訳品質が得られない原因の一つは翻訳モデルの学習データにあると考えられる。近年のニューラル機械翻訳モデルの多くは対訳コーパスをもとに学習を行う。この際、翻訳対象領域に関する対訳コーパスが十分に学習していない場合、翻訳品質が低下する欠点がある [2]。そのため、必要十分な翻訳品質を達成するためには、翻訳したい領域 (分野) の対訳コーパスを十分に用意し、適用領域に特化した翻訳モデルを構築するのが、最も有効な手段だと考えられる。しかし、一般に存在する対訳コーパスは限定的であり、特化したい領域の対訳文を十分に用意できない場合多い。 本研究では、特定領域に特化した機械翻訳モデルが必要となった際に、既存の翻訳モデルを迅速かつ安価に適応する手法を検討する。具体的には、図 1 のようにクラウドワーカーから特定領域に関連する対訳となっているURL 対の提供を受け、翻訳対象領域の対訳コーパスを迅速に Web から構築し、翻訳モデルを適応することで高い翻訳品質を達成する。本手法により、前述のような緊急事態発生時にも数日以内に高い翻訳品質を持った翻訳器を提供することを目標とする。 特定領域に関する対訳 URL クロール/対訳文抽出 特定領域に関する対訳文 ファインチューニング 領域特化翻訳モデル 図 1 クラウドソーシングを用いた領域適応の概要図 ## 2 関連研究 ## 2.1 翻訳モデルの領域適応 翻訳対象領域が限定されている際に、翻訳モデルを特定領域に特化させることを領域適応という。近年主流のニューラル機械翻訳では、大規模対訳コー パスで事前に学習した翻訳モデルを、適応対象領域の対訳コーパスを用いてファインチューニングする手法が主流となっている。Kiyono らは WMT2020 シェアードタスクにおいて、本手法により翻訳モデルをニュース領域に適応させることで、最大 2.2 ポイントの BLEU スコア向上を記録した [3]。ただし、本手法は適応対象領域のみを含んだ対訳コーパスが存在する場合に使用可能である。一般的には、特定領域のみを含んだ対訳コーパスが存在することは稀なため、大規模な対訳コーパスから適応対象領域に近い文を抽出し領域適応を行う場合が多い [4]。 本研究では、適応対象領域に近い対訳文を Web から収集し、得られた対訳文を用いて翻訳モデルをファインチューニングすることで領域適応を実現する。これまでの手法は、既存の大規模対訳コーパスから適応対象領域に近い対訳文を抽出し学習するものが大半だったのに対し、本手法では対訳文を新たに Web から収集するため、既存の対訳コーパスが網羅していない分野についても適応可能である。 ## 2.2 Web からの対訳文収集 近年は Web から対訳文を抽出し、大規模な対訳コーパスを構築する研究が進んでいる。ParaCrawl プロジェクトは、Webをもとに EU 公式言語-英語間の大規模な対訳コーパスを作成している [5]。また、日本語-英語間では 1000 万文対を超える Web ベー ス大規模対訳コーパス JParaCrawl が公開されている [6]。これらのコーパスは、CommonCrawl から各 Web サイトに含まれる言語別データ量を分析し、収集対象言語対のデータが一定以上の Web サイトをクロール対象とすることで構築されている。この手法では、膨大な Webから効率的に対訳文を収集することができるが、目的言語対のデータ量がしきい値未満の Web サイトについては取りこぼしが発生するほか、CommonCrawl に含まれていない Web サイトについては収集対象とならない久点があった。さらに、本研究のように翻訳したい領域があらかじめ決まっている状態でも、それに合わせた対訳文を収集することはできなかった。 Ling らはクラウドソーシングを活用して Twitter から対訳文を抽出する手法を提案した [7]。この手法では、安価に対訳文を収集することができるものの、特定領域に特化した対訳文は収集できない。 また Papavassiliou らは、Webクローラを活用することで特定領域の対訳コーパスを構築する手法を提案した [8]。本手法は、特定領域に関する対訳文を収集できるものの、Webクローラを動作させるためには時間とコストがかかる。 以上の研究をもとに、本研究では特定領域の対訳文を Web から迅速かつ安価に収集する手法を検討する。これにより、得られた対訳文を用いて特定領域に特化した翻訳モデルが学習可能となる。 ## 3 特定領域対訳文収集 ## 3.1 クラウドソーシングによる対訳 URL 収集 図 1 に示したように、本研究ではクラウドソーシングを活用して特定領域対訳文を収集し、領域特化翻訳モデルの実現を目指す。具体的な手順は以下の通りである。まず、適応対象領域に関する少量の対訳コーパス ( 1000 文程度)を人手で用意しこれを Dev セットとする。クラウドワーカーへ Dev セットを提示し、Devセットに近い対訳文を含む Web ペー ジ URL 対の報告を依頼する。クラウドワーカーへは発見した URL1 対につき、規定の報酬を支払う1) (3.3 節参照)。 本研究では、クラウドワーカーはこれまでの経験や勘を活かし、対訳となっている Webページを探し出せると仮定している。この仮定が成り立てば、本手法によりこれまでは難しかった特定領域に特化した対訳文収集が可能になる。 ## 3.2 対訳文抽出 クラウドワーカーから対訳となっている URL 対の報告を受けると、自動的に対訳文抽出を行う。 ParaCrawl 等の先行研究では、文書対応付けを行い Web サイト全体からどのページ同士が対応しているかを求め、その後対訳文対応付けを行っていた。しかし、本研究ではクラウドワーカーから対応しているぺージの URL 対を受け取るため、文書対応付けは必要ない。対訳文対応付けには、vecalignを用いる [9]。vecalign は LASER [10] の出力である多言語文埋め込みを受け取り、対訳文を抽出する。本研究では、vecalign が出力するスコア 0.5 以上の対訳文のみを正しい対訳になっていると仮定して以降の実験で使用する。 ## 3.3 報酬設定 クラウドワーカーへ支払う報酬は、報告された対訳 URL から得られた対訳文数、対訳品質および適応対象領域への類似度により変化させる。これにより、クラウドワーカーはより翻訳品質向上に寄与する Web ページを探索する意欲が増すことが期待される。また、不適切な作業については報酬を低く抑えることができ、コストの削減にも繋がる。実際の 1)ただし、すでに報告されている URL との重複は許さない。 報酬額は以下のように決定される。 対訳品質スコア報告された対訳 URL から得られた対訳文を $\mathbb{D}=\left.\{\left(x_{1}, y_{1}\right), \ldots,\left(x_{n}, y_{n}\right)\right.\}$ とする。ここで、 $x_{i}$ は $i$ 番目の原言語文、 $y_{i}$ は $i$ 番目の目的言語文を表す。対訳品質スコア $S_{a}$ は vecalignによって算出された 0 から 1 の值を持つスコア $\mathrm{V}(x, y)$ を用いて以下のように計算される。 $ S_{a}=\sum_{\left(x_{i}, y_{i}\right) \in \mathbb{D}} \mathrm{V}\left(x_{i}, y_{i}\right) $ 領域類似度スコア抽出された原言語文全体の平均文埋め込みを求め、これを Web ページ全体の文書埋め込み $e$ とする。 $ \boldsymbol{e}=\frac{1}{|\mathbb{D}|} \sum_{i=1}^{|\mathbb{D}|} \mathrm{L}\left(x_{i}\right) $ ここで、 $\mathrm{L}(x)$ は文 $x$ について LASER による多言語文埋め込みを返す関数、||D| は抽出された対訳文数を表す。 本研究では、適応領域に関するDevセットは文書単位に分割されていることを仮定する。 $m$ 文書からなるDevセットに関して、文書埋め込みを同様に計算する: $\boldsymbol{E}_{d}=\left(\boldsymbol{e}_{d_{1}}, \ldots, \boldsymbol{e}_{d_{m}}\right)$ 。 領域類似度スコア $S_{d}$ は、 Web ページ文書埋め込み $\boldsymbol{e}$ と Dev セット文書埋め込み $\boldsymbol{E}_{d}$ の $\cos$ 類似度を用いて以下のように計算する。 $ S_{d}=|\mathbb{D}| \max _{\boldsymbol{e}_{d} \in \boldsymbol{E}_{d}} \frac{\boldsymbol{e} \cdot \boldsymbol{e}_{d}}{\|\boldsymbol{e}\|\left.\|\boldsymbol{e}_{d}\right.\|} $ 最終的な報酬額 $r$ は、上記のスコアをもとに最低保証金額である 20 円を加え、 $r=20+3 S_{a}+3 S_{d}$ 円とした。ただし、報告された URL 対から 1 文も対訳文が得られなかった場合は報酬は 0 円となる。 クラウドワーカーに対しては、各作業について報酬及び各種スコアをフィードバックする。これにより、ワーカーはより高い報酬を得るよう、より品質が上がるように作業内容を変化させることが期待される。 ## 4 実験 ## 4.1 実験設定 対訳文収集本実験では、適応対象領域として新型コロナウイルス感染症を対象とした。本領域に関する対訳コーパス構築のために、クラウドワーカー を 10 人募集し、 5 日間かけて対訳文収集を実施し Dev/Test セットに含まれる文数および英語側単語数 表 2 BLEUスコア 表 3 分野別 BLEU スコア 図 2 データ収集日数による BLEU スコアの変化 た。報酬額の設定は 3.3 節の通りである。 翻訳モデル本実験では、英日翻訳を対象とした。分野適応前の汎用翻訳モデルとして、約 1000 万文の日英対訳コーパス JParaCrawl v2.0 で学習した Transformer Big モデル [11]を使用した。JParaCrawl は新型コロナウイルス感染症流行前に収集されたものであるため、対象領域に関する対訳文は含んでいない。汎用翻訳モデルの学習に関するハイパーパラメータは Morishita らの設定と同一である [6]。 本実験では、汎用翻訳モデルをもとに、提案法によりクラウドソーシングを活用して収集した対訳文を用いてモデルをファインチューニングすることで領域適応を行った。また、領域適応のベースラインとして、既存の大規模対訳コーパス (JParaCrawl) から特定領域に近い文を抽出し学習する Moore-Lewis の手法を使用する [12]。本手法は、2010 年に提案された比較的古い手法ではあるものの、2020 年に提案 \\ 図 3 翻訳品質が改善した例 された手法とほぼ同等の性能をもった強力なべースラインとなっている [13]。ファインチューニング時のハイパーパラメータを付録表 4 に示す。 適応対象領域に関する Dev セットおよび Test セットとして、新型コロナウイルス感染症に関する多言語テストセットである TICO-19 [14] を日本語訳し使用した。使用した Dev セットおよび Test セットの文数、単語数を表 1 に示す ${ }^{2}$ 。 ## 4.2 実験結果/考察 5 日間のデータ収集の結果、提案法により得られた対訳文数は 6,772 文、総報酬額は 31,079 円となった。得られた対訳文をもとに汎用翻訳モデルをファインチューニングした際の BLEU スコアを表 2 に示す3)。既存の Moore-Lewis 法では汎用翻訳モデルとほぼ同等の品質に留まったが、提案法により収集した対訳文を用いた領域適応は 1.5 ポイントの BLEU スコア向上を達成した。これは、既存の対訳コーパス中に適応領域に近い対訳文が十分に含まれていなかったことが原因だと考えられる。また、提案法による BLEU スコア向上はクラウドワーカーが適切に適応領域に近い対訳 URL を探索できたことを示している。 図 2 に、データ収集日数による BLEU スコアの変化を示す。収集 1 日目は収集できた対訳文数が少ない ( 1,152 文) こともありベースラインモデルを下回っているが、2 日目にはベースラインを大幅に上回る翻訳品質を達成している。 2)翻訳作業期間の都合上、Dev セットおよび Test セットの一部のみを翻訳し使用する。そのため、本来の TICO-19 全体に含まれる文数および単語数と差が生じている。 3) Moore-Lewis 法では、使用する対訳文数を変えて複数のモデルを学習し最も Dev セットの BLEU が高かかったモデル (上位 4,000 文)を使用した。試行した対訳文数は次の通り: スコア上位 1,000 文, 2,000 文, 4,000 文, 6,000 文, 10,000 文, 25,000 文, 50,000 文, 100,000 文。 TICO-19 に含まれる分野別 BLEU スコアを表 3 に示す。提案法による領域適応モデルは、ほとんどの分野でベースラインモデルを上回るスコアを達成している。特に、ニュース分野に関してはべースラインモデルと比較して 4 ポイントの BLEU スコア向上が見られる。これは、新型コロナウイルス感染症に関連したニュースサイトがクラウドワーカーによって多く報告されたことに起因すると思われる。 提案法により翻訳品質が改善した例を図3 亿示す。JParaCrawl のみを用いて学習したモデルでは “novel coronavirus”を正しく翻訳できていないのに対し、提案法による領域適応を行ったモデルでは「新型コロナウイルス」と正しく翻訳できていることがわかる。このように、適応対象領域の対訳文を新たに収集することにより、適応領域に関する専門用語が正しく翻訳可能になるケースが多く見受けられた。 以上の実験から、提案法により、特定領域の翻訳品質を迅速かつ安価に向上させられることを示した。 ## 5 おわりに 本稿では、クラウドワーカーを活用した翻訳モデルの即時適応手法を提案した。新型コロナウイルス感染症に関する領域を対象に行なった実験により、提案法を用いることで既存の対訳コーパスが網羅していない領域に対しても迅速かつ安価に領域適応を行うことができることを示した。今後、日英以外の言語対や、新型コロナウイルス感染症以外の様々な領域に対しても適応可能であることを示していきたい。 ## 参考文献 [1] 厚労省 HP、新型肺炎の外国語情報で誤訳多発 「手洗い重要」が「トイレ重要」.毎日新聞. [2] Mathias Müller, Annette Rios, and Rico Sennrich. Domain robustness in neural machine translation. In Proceedings of the 14th Conference of the Association for Machine Translation in the Americas (Volume 1: Research Track), pages 151-164, 2020. [3] Shun Kiyono, Takumi Ito, Ryuto Konno, Makoto Morishita, and Jun Suzuki. Tohoku-AIP-NTT at WMT 2020 news translation task. In Proceedings of the 5th Conference on Machine Translation (WMT), pages 145-155, 2020. [4] Amittai Axelrod, Xiaodong He, and Jianfeng Gao. Domain adaptation via pseudo in-domain data selection. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 355-362, 2011 . [5] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pages 4555-4567, 2020. [6] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th International Conference on Language Resources and Evaluation (LREC), pages 3603-3609, 2020. [7] Wang Ling, Luís Marujo, Chris Dyer, Alan W. Black, and Isabel Trancoso. Crowdsourcing high-quality parallel data extraction from Twitter. In Proceedings of the 9th Workshop on Statistical Machine Translation (WMT), pages 426-436, 2014. [8] Vassilis Papavassiliou, Prokopis Prokopidis, and Stelios Piperidis. Discovering parallel language resources for training MT engines. In Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), 2018. [9] Brian Thompson and Philipp Koehn. Vecalign: Improved sentence alignment in linear time and space. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 13421348, 2019. [10] Mikel Artetxe and Holger Schwenk. Massively multilingual sentence embeddings for zero-shot cross-lingual transfer and beyond. Transactions of the Association for Computational Linguistics (TACL), 7:597-610, 2019. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st Annual Conference on Neural Information Processing Systems (NeurIPS), pages 60006010, 2017. [12] Robert C. Moore and William Lewis. Intelligent selection of language model training data. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics (ACL), pages 220-224, 2010. [13] Roee Aharoni and Yoav Goldberg. Unsupervised domain clusters in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pages 7747-7763, 2020. [14] Antonios Anastasopoulos, Alessandro Cattelan, Zi-Yi Dou, Marcello Federico, Christian Federmann, Dmitriy Genzel, Franscisco Guzmán, Junjie Hu, Macduff Hughes, Philipp Koehn, Rosie Lazar, Will Lewis, Graham Neubig, Mengmeng Niu, Alp Öktem, Eric Paquin, Grace Tang, and Sylwia Tur. TICO-19: the translation initiative for COvid-19. In Proceedings of the 1st Workshop on NLP for COVID-19 (Part 2) at EMNLP 2020, 2020. [15] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. [16] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, 15:1929-1958, 2014. [17] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the Inception Architecture for Computer Vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pages 2818-2826, 2016. [18] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL HLT), pages 4853,2019 . 表 4 ファインチューニング時のハイパーパラメータ ## A ハイパーパラメータ 4 節で、既存汎用翻訳モデルを特定領域対訳コー パスを用いてファインチューニングする際のハイパーパラメータを表 4 に示す。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-15.pdf
# オープンドメイン QA における DPR の有効性検証 加藤 拓真 $1 *$ 宮脇峻平 $1 *$ 西田京介 2 鈴木潤 1,3 } 1 東北大学 ${ }^{2} \mathrm{NTT}$ メディアインテリジェンス研究所 3 理化学研究所 }^{1}$ takuma.kato, miyawaki.shumpei, jun.suzuki\}@ecei.tohoku.ac.jp ${ }^{2}$ kyosuke.nishida.rx@hco.ntt.co.jp ## 1 はじめに 計算機による自然言語の適切な理解を実現することは,自然言語処理および人工知能研究の最終目的の一つである。その実現に向けた取り組みとして,質問応答(QA)タスクに関する研究が近年大きな注目を集めている。QAタスクでは,質問に関連する適切な知識に基づいて解答を推定することが求められるが,関連知識を含む文書集合が用意されないという状況は少なくない。このような状況に対して, オープンドメイン $\mathrm{QA}[1]$ は, 問題を解くために必要な知識源を特に規定しない $\mathrm{QA}$ タスクとして,非常に重要な役割を持つ. 一般的にオープンドメイン QA では,1) 検索モジュール (retriever) が,質問に対して関連する文書を大規模な文書集合から検索し,2)読解モジュール (reader)が,検索した関連文書を用いて質問の解答を推定する,二つのプロセスを用いて取り組まれることが多い,特に関連文書の検索性能が, QA システムの性能に与える影響は大きく[1], Karpukhin ら [2] は,ニューラルモデルによる文書エンコーダによって密なベクトル表現にエンコードされた意味的な情報を,関連文書の検索に用いる Dense Passage Retriever(DPR)を提案し,QA システムの性能改善を実現した。DPR を用いたオープンドメイン QA に対する取り組みは,今後更なる発展が期待されているが,DPR の詳細な実験設定がオープンドメイン QA に与える影響を調査した研究は少なく,DPRについて明らかにされていない要素が多い。そこで本研究では, DPR の応用的な利用を目的として, 特に次元数を変化させたときの検索時間や性能変化について定量的な評価および分析を行う。  図 1 DPR を用いたオープンドメイン QA システムの概要図. 1) 質問に対する関連文書を抽出するため, エンコードされた質問と文書の類似度を計算する retriever と, 2) retriever が抽出した関連文書から質問に対する解答の推定を行う reader の二つのモジュールで構成される。 ## 2 関連研究 オープンドメイン $\mathrm{QA}$ では, モデルの予測性能に大きな影響を与える関連文書の検索方法を対象に,様々な研究が行われてきた。従来, 関連文書の検索方法には TF-IDF や BM25 [3] のように,質問中に存在する単語に対する文書中の出現頻度などの統計量を用いたマッチングが使用された。しかし $\mathrm{QA}$ タスクでは,質問文の表現と検索対象に記載される情報の表記が必ずしも同じであるとは限らないため, 表層一致を仮定する BM25 やTF-IDF といった抽出方法では,適切な文書が検索できない可能性が高いことが問題として広く知られている。この問題の解決策として, 近年急速に発達した単語埋め込みや深層ニューラルネットに基づく意味的な情報を含む密なべクトル表現を用いて,質問に対して意味的に類似する文書を抽出する方法が挙げられる,意味的な情報を含む密なべクトル表現を用いることで,質問中に含まれる単語の出現頻度に基づくマッチングだけでは抽出できなかった,未知の情報に関する関連文書の取得が可能となる.密なベクトル表現を用いた関連文書の抽出方法は様々なタスクに対して研究されてきており [4][5][6], 中でも Karpukhi らは DPR という手法を提案し, 密なベクトル表現によって QA システムの性能が向上したことを報告している. retrieverについて調査している先行研究として, Luan ら [7] は密なベクトル表現の次元数についての調査を行なっている. Luan らの研究では, 密なべクトル表現の次元数がオープンドメイン $\mathrm{QA}$ に与える影響が明らかになっていない点と, DPR を研究対象としていない点が,我々の研究と異なっている. ## 3 DPR を用いたオープンドメイン QA システム 1 章で述べたように,オープンドメイン $\mathrm{QA}$ システムは,文書検索を行う retriever と検索した文書から解答を推定する reader の二つのモジュールで構成される. 本研究では, retriever における関連文書の検索手法として Dense Passage Retriever(DPR)[2] を用いた QA システムを使用する (概要を図 1 に示す). 本章では, この DPRを用いた QA システムについて説明する. ## 3.1 retriever による文書検索 本節では,retriever として DPR を用いた文書検索について説明する. ## 3.1.1 DPR の学習 DPR では与えられた質問 $q$ および文書 $p$ の類似度を計算し, 質問に関連する文書の類似度が高くなるように学習を行う. 類似度は, 質問 $q$ と文書 $p$ との内積によって計算される(式 1). $ \operatorname{sim}(q, p)=E_{Q}(q)^{\top} E_{P}(p) $ ここで, $E_{Q} , E_{P}$ はそれぞれ質問,文書に対する二つのエンコーダを表す. DPRでは, これら二つのエンコーダについて学習を行う. 学習データは, $D=\left.\{\left.\langle q_{i}, p_{i}^{+}, p_{i, 1}^{-}, \cdots, p_{i, n}^{-}\right.\rangle\right.\}$で定義される. ここで, $p_{i}^{+}$は正例の文書, $p_{i, j}^{-}$は負例の文書を示す. モデルは式 2 の損失関数が最小になるようにエンコーダ $E_{Q}$ と $E_{P}$ を学習する. $ \begin{aligned} & L\left(q_{i}, p_{i}^{+}, p_{i, 1}^{-}, \cdots, p_{i, n}^{-}\right) \\ & \quad=-\log \frac{e^{\operatorname{sim}\left(q_{i}, p_{i}^{+}\right)}}{e^{\operatorname{sim}\left(q_{i}, p_{i}^{+}\right)}+\sum_{j=1}^{n} e^{\operatorname{sim}\left(q_{i}, p_{i, j}^{-}\right)}} \end{aligned} $ 各質問に対して, 式 2 で求められる損失は, 正例文書との類似度が高いほど,また負例文書との類似度が低いほど,值が小さくなる.3.1.2 項では,正例および負例となる文書の選択方法について説明する。 ## 3.1.2 正例・負例の選択 本項では, 3.1.1 項で述べた, 正例および負例の文書について,その選択方法を述べる.以下,正例文書をポジティブパッセージとする. また, 負例文書をネガティブパッセージおよびハードネガティブパッセージの二つに分ける. ポジティブパッセージ文書集合のうち,与えられた質問に対する解答が文書中にも含まれ,かつ, BM25 スコアによる質問と文書間の関連度の高い上位 100 件に含まれる文書をポジティブパッセー ジとして定義する。なお上位 100 件以内に解答が含まれない場合, その質問解答ぺアはデータセットとして使用しないものとする. ネガティブパッセージ質問 $q_{i}$ に対して,同一ミニバッチ内に存在する他の質問解答ペアが保持するポジティブパッセージを,質問 $q_{i}$ に対するネガティブパッセージとして定義する1). ハードネガティブパッセージ質問に対する解答が含まれない文書集合のうち, 質問との関連度が最も高い文書をハードネガティブパッセージとして定義する. ## 3.2 reader による解答推定 本節では, reader の解答推定について説明する. reader では, retriever が検索した関連文書から問題の解答となる箇所を推定する.retriever が検索した上位 $k$ 件の文書を, BERT [8] でエンコードし, 分散表現 $\mathbf{P}_{i} \in \mathbb{R}^{L \times h}(1 \leq i \leq k)$ を獲得する. ここで, $L$ は文書の最大長, $h$ は BERT の隠れ層の次元数である. 解答を推定するための文書を決定するため, 獲得した分散表現に対して, 式 3 を用いて各文書のスコアを求める. また, $i$ 番目の文書について, 文書中の位置 $s$ のトークンが解答スパンの開始トークンになる確率 $P_{\text {start }, i}$ と, 位置 $t$ のトークンが解答スパンの終了トークンになる確率 $P_{\mathrm{start}, i}$ を,それぞれ式 4,5 で求める. $ \begin{aligned} P_{\text {selected }}(i) & \left.=\operatorname{softmax}\left(\hat{\mathbf{P}}^{\top} \mathbf{w}_{\text {selected }}\right)\right)_{i} \\ P_{\text {start }, i}(s) & =\operatorname{softmax}\left(\mathbf{P}_{i} \mathbf{w}_{\text {start }}\right)_{s} \\ P_{\text {end }, i}(t) & =\operatorname{softmax}\left(\mathbf{P}_{i} \mathbf{w}_{\text {end }}\right)_{t} \end{aligned} $ ここで, $\mathbf{P}=\left[\mathbf{P}_{1}^{[\mathrm{CLS}]}, \ldots \mathbf{P}_{k}^{[\mathrm{CLS}]}\right]$ ([CLS] は BERT の [CLS] トークン) であり, $\mathbf{w}_{\text {selected }}, \mathbf{w}_{\text {start }}, \mathbf{w}_{\text {end }} \in \mathbb{R}^{h}$ は, reader が学習する重みベクトルである。また, softmax 1)訓練時にはランダムにミニバッチの作成が行われる度,プログラム上で動的にネガティブパッセージの作成を行う. 表 1 データセットの質問数 の添字 $i, s, t$ は,それぞれ $\operatorname{softmax}$ の結果から添字 $i, s, t$ の行を取得するという意味である. 最終的に, 式 3 で求めたスコアが最も高い文書について, $P_{\text {start }, i}(s) \times P_{\text {end }, i}(t)$ の值が最大となるスパン $(s, t)$ を, reader が予測結果として出力する. ## 4 実験設定 ## 4.1 データセット 本実験では, QA タスクの日本語データセットとして JAQKET [9] を用いた。また, 検索対象の文書となるオープンソースの文書集合として,920,172 の記事からなる日本語 Wikiepdia のデータを用いた。 ## 4.2 データセットの前処理 MeCab [10] を使用して Wikipedia の記事をトークナイズし, 各文書のトークン数が 200 となるように各記事を分割した ${ }^{2}$ .トークナイズによる文書の作成をにより, 合計で $6,125,433$ からなる文書集合を取得した。また3.1.2 項における正例および負例の文書の選択は, ElasticSearch ${ }^{3)}$ を用いて質問と Wikipedia の文書間の関連度となる BM25 スコアを算出し, 求めた関連度に基づいて選択を行った。前処理を行ったデータセットの統計情報を表 1 に示す4). 2) トークン数は, $\{50,100,150,200\}$ から,開発セットにおける順位平均値が最も低い値を示した 200 を選択した。 3) https://github.com/elastic/elasticsearch 4)前処理の前後でデータサイズが減少しているが,これは3.1.2 項で述べたように,質問と解答が含まれる文書との関連度が上位 100 件に含まれない場合,その質問はデータセットとして使用しないことが原因である. ## 4.3 モデルアーキテクチャ 本実験で用いる $\mathrm{QA}$ システムは, 3 章で述べた, retriever と reader の二つのモジュールから構成されるモデルを使用した。エンコーダには retriever, reader 共に事前訓練済みの日本語 $\mathrm{BERT}^{5)}$ を用いた.表 2 に retriever および reader のハイパーパラメータの値を示す6). retriever による関連文書の抽出には,質問および文書に関する二つのエンコーダから取得した密なべクトル表現を用いて,式 1 の内積值に基づく関連度を算出した。関連度の計算ツールには,検索時間の効率化を図るため, faiss ${ }^{7)}$ を使用した. faiss の検索手法には,最大内積探索に基づいた IndexFlatIPを用いて,関連文書の検索を行った。なお全ての文書のエンコードに要する時間は,TITAN X(Pascal)を用いた場合,およそ 5 時間 25 分ほどであった. reader の性能を測る評価指標として,質問に対する正解の解答との完全一致を用いた。 ## 5 実験 本実験では,DPR の要素の 1 つである密なべクトル表現の次元数が $\mathrm{QA}$ システムの性能に与える影響を明らかにするために, ベクトルの次元数を変えたときの性能評価を行った。retriever の性能評価として,5.1 節では, faiss を用いて関連文書の検索を行った際の検索時間の結果を,また 5.2 節では,抽出した関連文書の評価結果を示す. さらに 5.3 節では,質問に対する QA システムの正解率の結果を示す. ## 5.1 関連文書の検索時間 retriever の文書エンコーダを用いて,Wikipedia の全文書のエンコードを行い,faiss を用いた関連文書の検索を行った.密なべクトル表現の各次元に対して, faiss のインデックスの構築時間,および関連文書の検索時間を表 3 に示す。なお GPU は TITAN X (Pascal)を使用した。また関連文書は上位 300 件までを対象に抽出を行った。実験結果より,関連文書の検索に要する時間は,検索に用いる質問および文書におけるべクトル表現の次元数におおよそ比例することが分かった。これは関連文書の検索に用いた 5) https://github.com/cl-tohoku/bert-japanese 6)開発セットを用いて, retriever では順位平均值が最小となった值,reader では完全一致した数が最多となった值を,設定值とした. 7) https://github.com/facebookresearch/faiss 表 3 faiss によるインデックス構築時間および検索時間 図 2 開発セットにおける retriever の正解率 手法が,式 1 に示す内積計算に基づいたもので,べクトル表現の次元数に比例して, 演算の計算量が増加するためであると考えられる. ## 5.2 retriever の性能評価 各質問に対して, retriever が抽出した上位 $k$ 件までの文書中に解答が含まれる場合を正解とし, retriever の性能評価を行った。評価結果を図 2 に示す. 図 2 より,密なベクトル表現の次元数が大きいほど,解答を含む文書の抽出漏れが少ないことを確認した。しかし,上位 100 件までの文書集合でさえ解答が含まれる割合は七割程度であり, 残り三割程度の質問は解答不可能であることを示している。 ## 5.3 QA システムの性能評価 retrieverが抽出した関連文書の集合のうち,上位 $k$件までの文書を使用した時の正解率を評価指標として,QA システムの性能評価を行った。評価結果を図 3 に示す. 図 3 より, 密なベクトル表現の次元数が最も大きい 768 次元での正解率が, 最も高い値となった。また,与えられた質問に対して,reader が予測した解答のスパンに対して, 正解のスパンと部分的に一致している事例がどれほど存在しているか調查を行った。具体的には,式 6 に示す Intersection over Union の値を算出し, $\lambda$ の値を超えた場合の予測事例を正解と判定した場合の正解率を算出した。 $ \frac{T_{\text {gold }} \cap T_{\text {pred }}}{T_{\text {gold }} \cup T_{\text {pred }}} \geq \lambda $ ここで, $T_{\text {gold }}, T_{\text {pred }}$ は, 正解の解答およびモデルが予測した解答を,それぞれ MeCabでトークン単 図 3 開発セットにおける QA システムの正解率 表 4 密ベクトルの次元数に対する QA システムの正解率 位に分割した集合を表す. $\lambda$ はモデルの予測が正解とどの程度一致しているかを定めるハイパーパラメータである.今回は抽出された上位 100 件の文書を対象として, readerの予測に対する正解率を, $\lambda=1.0$ と $\lambda=0.5$ それぞれについて算出した. 評価結果を表 4 に示す. 表 4 より, $\lambda=1.0$ および $\lambda=0.5$ では性能の差がほとんどみられなかった。このことから,モデルの予測が誤っている場合,その予測スパンは,正解の解答スパンとは異なった部分を文書から抜き出しているということが考えられる。 ## 6 おわりに 本研究では,DPR を用いた密なべクトル表現が, $\mathrm{QA}$ システムの性能にどのような影響を与えるか調査するため, JAQKET データセットを用いて, QA システムの予測性能や関連文書の検索時間に与える影響を評価した。結果として,密なベクトル表現の次元数が文書の検索時間やモデルの性能に与える影響が明らかになった。本実験では,一つのデータセットに対象を限定して実験を行ったが,今後は複数のデータセットに対して同様の実験を行い,データ間での横断的な比較について調査を行っていきたい。 謝辞本研究の一部は JSPS 科研費 JP19H04425 の助成を受けたものである. ## 参考文献 [1] Ellen M. Voorhees. The TREC-8 question answering track report. In TREC, 1999. [2] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick S. H. Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. Dense passage retrieval for open-domain question answering. In $E M N L P, 2020$. [3] S. Robertson and H. Zaragoza. The probabilistic relevance framework: Bm25 and beyond. Found. Trends Inf. Retr., Vol. 3, , 2009. [4] Wen-tau Yih, Kristina Toutanova, John C. Platt, and Christopher Meek. Learning discriminative projections for text similarity measures. In CoNLL, 2011. [5] Po-Sen Huang, Xiaodong He, Jianfeng Gao, Li Deng, Alex Acero, and Larry P. Heck. Learning deep structured semantic models for web search using clickthrough data. In ACM CIKM, 2013. [6] Daniel Gillick, Sayali Kulkarni, Larry Lansing, Alessandro Presta, Jason Baldridge, Eugene Ie, and Diego GarcíaOlano. Learning dense representations for entity retrieval. In CoNLL, 2019. [7] Yi Luan, Jacob Eisenstein, Kristina Toutanova, and Michael Collins. Sparse, dense, and attentional representations for text retrieval. CoRR, Vol. abs/2005.00181, , 2020. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In $N A A C L-H L T$, 2019. [9] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET: クイズを題材にした日本語 QA データセッ卜の構築. 言語処理学会, 2020. [10] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In $E M N L P, 2004$.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-16.pdf
# JointQA モデルによる質問応答精度向上の日本語データセット JAQKET への適用検討 竹下恭史朗 早稲田大学大学院情報生産システム研究科 tkstria@ruri.waseda.jp ## 1 はじめに 質問応答 (Question answering または Answer generation) タスクとは、与えられた文書などの知識をもとに、入力された質問や読解問題に正しく応答することを目指すタスクである。一方、問題生成 (Question generation) タスクとは、入力された言葉を解答とする問題を出力することを目指すタスクである。これらは問題、解答、背景知識の 3 つの要素で構成されており、2 つの要素から残り 1 つの要素を導くことができる。例えば質問応答においては、問題に対して背景知識を元に解答を導く。問題生成においては、解答になるべき語句に対して背景知識を用いて問題文を生成する。ここで、背景知識とは問題と解答の関係性を示す文書や、多くの文書から学習した単語の数学的表現 (word2vec など) が挙げられる。 これらのタスクには多くのモデルが用いられ、これまでに多様な改善が試みられ、優れたモデルは社会に応用されてきた。 質問応答と問題生成は互いにその質を補完する関係が知られており、同一のモデルで質問応答と問題生成の同時に訓練したモデル (これを JointQA モデルと呼ぶ) は、個々のタスクに特化したモデルよりも教師データとの一致が高いという報告が見られる。そこで、本研究では、2020 年に発表された日本語の質問応答データセット JAQKET[12]を用いて、質問応答と問題生成の質の相関を観察した。 ## 2 関連研究 WikiQA[11] や SQuAD[6] に代表される質問応答データセットを用いた研究として、問題から解答を導く質問応答のみならず、解答からそれを問う問題を作る問題生成が知られている。そしてこの問題生成は質問応答よりも長い単語列を出力しなくてはならないためタスクとして難しく、また、受け入れら れうる問題が教師データとして与えられているもの以外にも多様に考えられるなど、多くの課題を抱えている。 ところで、質問応答・問題生成に関する興味深い事象として、JointQA モデルによる質問応答、問題生成の質の向上がある。JointQA モデルとは、質問応答・問題生成の双方を同時に訓練した深層学習モデルのことで、JointQA モデルの学習によって、単に一つのタスクのみを学習したモデルよりも精度の高い出力が得られるというものがある。 JointQA モデルによる質問応答の精度の向上は多くのデータセットで確認されており [8]、問題生成の訓練が、質問応答をする上で有効な Attention 機構の作用に寄与することが原因と見られている。これまでそういった JointQA モデルの研究の題材となっていたのは英語で書かれたデータセットによるものが多かった。 しかし、2020 年に鈴木らにより日本語で書かれた質問応答データセット JAQKET がリリースされ、構造化された日本語の質問応答データセットの供給により、日本語の問題生成や質問応答の研究が行えるようになった。 これまでに行われた質問応答と問題生成の精度の相関を見る研究は、英語で書かれたデータセットのものが多く、日本語での問題生成に着目した研究は見られていない。 ## 3 研究目的 本研究では、JAQKETで与えられた問題文、解答、解答についての Wikipedia 記事、これら三つの要素を用いて、質問応答と問題生成をさまざまな条件で行い、JAQKET を質問応答のみならず問題生成についても活用することを試みる。 もっとも注目する点として、他のデータセットに見られていた JointQA モデル 1 による質問応答の一 図 1 入力する問題と文書を連結したものシアン=問題、黄=弁別のための値、緑=文書 図 2 入力する解答と文書を連結したものマゼンタ=解答、黄=弁別のための値、緑=文書 致度の向上が、JAQKET においても見られるかを観察する。 ## 4 実験 入力として、質問応答タスクの場合は問題と解答に対する情報を含んだ文書を入力し、深層学習モデルによって解答を出力することを目指す。問題生成タスクの場合は解答とその解答に関する情報を含んだ文書を入力し、教師データに近い問題を生成することを目指す。 ## 4.1 入出力データ データ資源として、2020 年に鈴木らが発表した JAQKET を用いる。JAQKET は各タプルに ID、問題、解答、真の解答と 19 のダミーを含んだ選択肢、正規化 (全角文字を半角にするなど) 前の問題文・解答を含んだデータセットで、別のデータが、各選択肢についての Wikipedia 記事全文を与えている。実際の JAQKET の一部を図 1 に示す。訓練用デー タとして 13,061、開発用データとして 997、評価用データとして 995 の問題 - 解答対がある。今回の研究では、JAQKET から問題と解答と Wikipedia 記事を sentencepiece で分かち書きしたものの先頭 500 サブワードを抽出し、質問応答の場合は問題文に、問題生成の場合は解答の語句にそれを連結した。この際、各タスクのどちらを行うかの弁別のために、問題あるいは解答と記事の間に、問題生成の場合は 「0」を、質問応答の場合は「1」を付与し、モデルがどちらの学習を行っているか把握する上での助けとした。(図 1,2 )表 1.JAQKET に含まれるデータの一例 \\ 実験の条件として、解答と文書から問題 (q-gen のみ)、問題と文書から解答を導く (a-gen のみ) ものに加え、JointQA による精度の改善を観測するために、全データを半分に分けてそれぞれ a-gen と q-gen を一つのモデルで同時に行う a-gen $\vee \mathrm{q}$-gen、全データを a-gen にも q-genにも用いる a-gen $\wedge$ q-gen、これら四つの条件で実験を行った。各条件の入力における、訓練データ、開発データの数を表 2 に示す。 表 2. 各条件における入力 このとき、a-gen $\vee$ q-gen は一つの問題 - 解答対は質問応答と問題生成のどちらかにしか使わない一方、a-gen $\wedge$ q-gen は一つの問題-解答対を質問応答と問題生成の双方に使うことに注意されたい。 ## 4.2 実験条件 先述の入出力を扱うため、ニューラル機械翻訳に用いられるフレームワークである OpenNMT[3] を用いて深層学習モデルを構築した。 具体的には、モデルとしてLSTMを用い、SQuAD を用いた過去の研究および OpenNMT が推奨する設定を参考に、学習係数は 1.0、バッチサイズは 32、入出力次元は 500 、ドロップアウトは 0.3 とした。最適化関数として、Adadeltaを用いた。 ## 4.3 評価の手法 既存の質問応答・問題生成の研究においては、 データセットごとに推奨される評価の手法があり、 たとえば SQuAD の場合は a-gen の場合 F1 スコアと EM(Exact match)、q-gen の場合 BLEU[5]を用いている。今回は a-gen と q-gen の評価について、SQuAD に倣い a-gen は EM とF1 スコア、q-gen は BLEU を用いた。 ## 5 結果 各条件の a-gen、q-gen の結果を表 3 に示す。表 3. 各条件で訓練したモデルの出力の評価 結果から、a-gen(EM) においては、a-gen のみの入力よりも a-gen $\wedge$ q-gen の入力のほうが大きい値を得ており、JointQA による精度の向上が見られた。一方、a-gen(F1)においては、a-gen のみも a-gen $\wedge$ q-gen も同じ值を得た。出力の一例を付録中の表 5,6 に示す。 また、q-gen に関して、過去の研究で Sachan ら [8] がデータセットとして SQuAD を用いて報告した值を表 4 に示す。 表 4.SQuAD を用いた既存研究の q-gen の評価 [8]より引用 IR は編集距離を元にした生成アルゴリズム、MOSES は統計的機械翻訳に用いられるモデル、DirectIn は longest sub-sequence を問題として出力するモデル、 H\&S はあらかじめ設定されたルールベースで問題を多く生成し、ランキングするというモデルである。「Tang ら,2017」は GRUを用いたニューラルネットワークを用いたモデルで、「Du ら,2017」は LSTM を用いたニューラルネットワークを用いたモデルである。 出力の例を付録の ## 6 考察 ## 6.1 a-gen の評価の SQuAD との比較 a-gen に関して、a-gen のみでの訓練で 37.81 の EM、 0.7500 の F1 スコアを得た。また、a-gen に加えて q-gen の訓練をすることで 52.76 の EM、0.7500 の F1を得た。本研究で参考としているSQuAD の公式サイトでは、コンペティションの形式で各モデルの EM と F1 スコアを載せるリーダーボードを公開している1)。そこでは末席である 63 位のモデル (匿名) でも、EM 53.698 を記録しており、当研究で得られた最大の EM である 52.76 を上回っている。一方で、当研究で記録した F1 スコアの 75.00 に関しては、リーダーボードの 55 位と 56 位の間に位置している。なお、 57 位には、当研究でも実装した LSTM を含む、CNN モデルが大っている。 低いスコアを記録した一因として JAQKET が SQuAD に比べて新しく、探索がされていないデー タセットであるという以外にも、JAQKET が本来 20 の選択肢の中から正しい選択肢を選択する課題のためのデータセットとしてリリースされたため、問題から自由に解答を出力する形式のタスクとしては困難なことが考えられる。 ## 6.2 q-gen の BLEU の低さ q-gen に関して、本研究の BLEU を考察する。本研究では LSTM を用いているため、その他のハイパーパラメータの影響はあるにせよ、表 4 に挙げたなかでのモデルでは、LSTM を用いて SQuAD を処理した Du らの実装により近いといえるだろう。Du らの結果 12.28 に比べ、本研究では q-genのみの訓練で 3.9、a-gen $\wedge$ q-gen の条件で 2.8 とそれを大きく下回る結果となった。 原因として考えられるのは、一つは単にハイパー パラメータやモデルの選択に余地がある可能性である。今回の学習では、特に q-gen, a-gen $\vee$ q-gen, a-gen $\wedge$ q-gen の学習において過学習の傾向がある。より適切に実装を行うことで、精度が改善する可能性がある。 他にもデータセットの特徴が影響している可  能性がある。例えば SQuAD は英語で書かれた、 Wikipedia の一段落に基づいて作成された問題 - 解答対を含むデータセットである。対して JAQKET は日本語で書かれた、あらかじめ存在したクイズ問題文に Wikipedia の全文を文書として与え、それが情報として十分であることが保証されていないデータセットである。 ## 6.3 a-gen $\vee$ q-gen における値の低さ a-gen $\vee$ q-gen の入力条件について、単一のタスクを訓練したモデルや a-gen $\wedge$ q-gen を訓練したモデルよりも、各タスクにおいて低い数值を得ることがわかった。 この研究において、a-gen $\vee$ q-gen は一つのデータセットを半分に分け、片方を質問応答、もう片方を問題生成のみに用いる入力である。つまり、質問応答だけに使われる問題と、問題生成だけに使われる解答が存在することになる。一方、a-gen $\wedge$ q-gen はデータセットに含まれるデータすべてを質問応答にも問題生成にも用いる入力である。つまり、すべての問題・解答が、質問応答にも問題生成にも用いられることになる。向上が a-gen $\wedge$ q-gen だけに見られたのだとすれば、一つの問題-解答対の両方を学習に用いることが必要になるということである。 JointQA による精度の向上のメカニズムは未だ議論されているが、一説には文書への attention 機構がより効果的に訓練されることが述べられている。本研究での a-gen $\vee$ q-gen で向上が起こらなかったのには、ある一つの文書を質問応答・問題生成のどちらかにしか使わず、文書への attentionへの訓練を、質問応答と問題生成の両方で訓練しなかったことが一つの原因として考えられる。 ## 6.4 a-gen $\wedge$ q-gen における a-gen のみとの比較 a-gen $\wedge$ q-gen について、a-gen(EM) については 52.76、a-gen(F1)については 75.00 の値を得た。a-gen のみと比較して、F1 スコアは同程度のものを得たが、EM については、q-gen の訓練を行うことで 37.81 から 52.76への向上を得た。q-genについては、 q-gen のみの訓練が 3.9 に対して、a-gen $\wedge$ q-gen は 2.8 を得たため、q-gen については向上を得られなかった。また、表 4 におけるDu らの結果はLSTMを用いたモデルであるから、本研究で実装したものと近いものであるが、それは SQuAD においては 12.28 の BLEU を記録しており、それに比べると低い值を得たことがわかった。これは SQuAD における q-gen のみの訓練をしたモデルの結果だが、これが本研究と同じ LSTM を用いて実装されたものであることを考えると、その他のハイパーパラメータの影響を無視すれば、この差はデータセットによるものだと考えられる。 ## 7 おわりに 今回の研究では JAQKET を用いて質問応答・問題生成、およびそれらの相互関係について踏み込む研究を行った。今後の課題として、問題生成を SQuAD などの既存のデータセットを用いた研究と同程度の精度で出力を得ること、単に正解データとの一致度だけでなく、問題生成の解答可能性や多様性を評価することなどが挙げられる。 ## 参考文献 [1]Xinya Du, Junru Shao, and Claire Cardie. Learning to ask: Neural question generation for reading comprehension, 2017. [2]Michael Heilman. Automatic Factual Question Generation from Text. PhD thesis, USA, 2011. [3]Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, July 2017. Association for Computational Linguistics. [4]Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [5]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [6]Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [7]Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [8]Mrinmaya Sachan and Eric Xing. Self-training for jointly learning to ask and answer questions. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 629-640, 2018. [9]Linfeng Song, Zhiguo Wang, Wael Hamza, Yue Zhang, and Daniel Gildea. Leveraging context information for natural question generation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 569-574, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [10]Duyu Tang, Nan Duan, Tao Qin, Zhao Yan, and Ming Zhou. Question answering and question generation as dual tasks, 2017. [11]Yi Yang, Wen-tau Yih, and Christopher Meek. WikiQA: A challenge dataset for open-domain question answering. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2013-2018, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [12]鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET: クイズを題材にした日本語 QA データセットの構築. 言語処理学会第 26 回年次大会 (NLP2020), 2020. ## A 付録 ## A. 1 質問応答・問題生成出力の例と正解データとの比較 各入力条件の出力結果と、目標となる正解データを表 5、表 6 に示す。 表 5. 質問応答の出力の例 & \\ 表 6. 問題生成の出力の例 & & (空出力) & & & \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-17.pdf
# 問い返し質問文生成によって曖昧性解消を行う 質問応答システム 中野佑哉 1,3 河野誠也 ${ }^{1,2}$ 吉野幸一郎 $2,3,1$ 須藤克仁 ${ }^{1,3}$ 中村哲 1,3 1 奈良先端科学技術大学院大学 2理化学研究所ロボティクスプロジェクト 3 理化学研究所革新知能統合センター AIP } \{nakano.yuya.nw9, kawano.seiya.kj0, koichiro, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 質問応答は自然言語の質問を入力としてその回答を出力するタスクである。特に近年の質問応答ベンチマーク [1][2] で定義されているような, 回答候補が含まれる文書群を与えた上でそこから回答を導き出すような質問応答は機械読解とも呼ばれ [3], 機械による自然言語の理解がどの程度進んでいるかを測る重要な指標となっている. こうした既存の質問応答タスクでは,ユーザが発する質問が応答に十分な情報を含んでいることを仮定している。しかし実際の質問応答タスクを考えた場合,システムに与えられるユーザ発話はしばしば曖昧で,正しい回答を導き出すために追加の情報を必要とする. こうした曖昧なユーザ発話にどう対応するかについては,発話外の情報を用いる [4],ユー ザに問い返しを行う [5] など,様々なアプローチが検討されている。特にシステムからの問い返しを行う枠組みは対話的情報検索 [6] と呼ばれ,ユーザとの言語的なやり取りを通じて必要な情報を取得するためにどのような問い返しが必要かということについて検討が行われている [7]. しかし,こうした問題に対して大規模ベンチマー クを構築することは難しい。一番の問題点は,実際の曖昧な質問とその真の意図を大規模に収集することが困難な点にある.また,どのような曖昧さが質問応答システムの回答を困難にするかも明らかではない. そこで本研究では,質問文の文構造に基づいた変換によって,意図が曖昧となる質問を疑似生成する手法を提案する. 文構造を用いて質問文中に含まれる情報を選択的に除くことにより,曖昧さを制御した疑似質問文を生成することができる。本論文では特に句に着目した情報選択手法を提案した。 図 1 曖昧な質問文生成の流れ また,このような疑似生成された曖昧な質問文を与えた場合に,必要な情報を復元する機能が必要となる. そこで,自動生成された問い返し質問文によって必要な情報を回復する枠組みを構築した。この問い返し質問文生成には,格フレームを用いた。 評価では,まず変換に基づく質問文に対する曖昧性付与によって,実際にどの程度既存の質問応答モデルからの回答が難しくなるかについて評価した. その上で, システムからの問い返しに対してユーザが正しく回答した場合,元の質問文への曖昧性付与によって低下した質問応答の精度がどの程度復元されるかについて評価を行った。 ## 2 文構造を用いた曖昧な質問文生成 まず,本論文では質問応答のベンチマークとして広く利用されている HotpotQA データセット [2] を用いる.この既存の質問応答タスク向けデータセットでは,データセット中の質問文が与えられた場合,データセット内の回答候補文書内から回答が一意に定められるような質問文が定義されている.このデータに対して,これまで著者らが検討してきた通り,文構造,特に句に着目した変換によって曖昧な質問文を疑似生成する [8]. 本節では,この変換手法の概要と生成質問文の品質評価について述べる. 表 1 質問応答モデルの回答精度比較 表 2 主観評価の結果 ## 2.1 質問文変換手法 変換手法の流れを図 1 に示す. 元の完全な質問文から曖昧な質問文への変換を行うため,まずデータセット中に定義されている質問文の統語構造を得る. 統語構造解析には Stanford Parser ${ }^{11}$ [9][10] を用いる. 統語構造として得られた木に対して,VP,PP となる部分木を欠落対象として選択する。選択された部分木を欠落させた文を,該当箇所の情報が欠落した曖昧な質問文として生成して用いる. 久落候補が複数存在する場合は, 久落対象の範囲がもっとも短い部分木を選択する。 ## 2.2 疑似生成された曖昧な質問文の評価 生成された曖昧な質問文に対して既存の質問応答モデルの回答精度を求めることで,実際にどの程度質問応答のために必要な情報が欠落できているかを確認する。また,生成した質問文が文法的におかしい場合は変換が適切でないことが予想されるため,疑似生成結果の質を担保するため英文としての自然さを確かめる主観評価をあわせて行った。 回答精度比較実験(表 1)では,変換後の曖昧な質問文が質問応答モデルの回答精度にどのような影響を与えるか確認する。VP,PP,その両方(Mixed) をそれぞれ久落対象として生成された質問文を用いた実験結果を示している.表中にある EM は同一の BERT を用いた質問応答モデル [11] が出力する回答の正解率,F1 はそのモデルによって出力される回答の再現率と適合率の調和平均を表す. 質問応答モデルの学習には HotpotQA データセットの学習セット部分を,評価には開発セット部分を用いた。 Original は変換前の質問文を入力とした場合のスコ  図 2 問い返し質問文生成の流れ アを表す. Original のスコアと比較して, 全ての変換において質問応答モデルの回答精度が低下しており,提案する変換によって生成した曖昧な質問文がモデルの回答を困難にしていることが確認できた。 主観評価では,生成した曖昧な質問文が英文として自然かどうかについて被験者 3 名が評価した.この実験では,変換によってモデルの回答が変換前と異なるような質問文を評価の対象とした. 元の質問文の統語構造から VP,PP,その両方(Mixed)を欠落の起点とした場合で,それぞれランダムに 200 文ずつサンプリングし,英文としての自然さを 3 段階で評価をしてもらった. 各条件に対する評価の平均を表 2 に示す. ここで, Normal Form は元の質問文が疑問詞から始まる一般的な質問文の形であるものを指し, Irregular Form は疑問文以外の形で質問を行っている文を指す.VPのみを用いた変換では,久落範囲が大きくなりすぎてしまう場合があり,PP のみを用いた変換と比較して自然性が低くなる結果となった.今回の実験結果からは,PPのみを用いる場合と,VP と PP の両方を用いた場合の間に有意な差 $(p<0.05)$ は認められなかった。これは,PPを用いた場合の欠落候補箇所が VP を用いる場合と比較して短く, 長さの観点から優先されて多く出現したことが原因として考えられる。また,設定した変換の全てで Irregular Form の質問文に対する評価の平均は Normal Form より低く,自然な文が生成されにくいことが明らかとなった。これは,問いたい内容を表す疑問詞が文中から欠落してしまっていることが主な原因と考えられる。 図 3 問い返し対話例 ## 3 ユーザヘの問い返し質問文生成 前節では文構造を用いることで,実際に既存の質問応答システムが回答できない形に質問文に曖昧性を付与できることがわかった. このような曖昧な質問文が持つ曖昧性を解消するには,何らかの方法で久落した情報を補完する必要がある.こうした曖昧性解消を試みるため, 大塚ら [4] はユーザの真の意図と推定される改訂質問をユーザに提示するモデルを提案した.このモデルでは,質問者は自身の質問意図に近い改訂質問を選択することで,所望の回答を得ることができる. しかしこうした手法ではあくまでシステムが改訂質問を生成するため, ユーザから得られる情報の量に限界がある。 これに対して本研究では,ユーザへ問い返し質問を生成することで,対話的に不足情報を補うことができるシステムの構築を目指す. 具体的には,用言の依存関係に基づいた問い返し箇所推定と,格フレーム辞書を基にした適切な疑問詞の決定・問い返乙質問文生成を行う。 ## 3.1 格フレームを用いた問い返し質問文生成 格フレームは,用言とそれに係る名詞の役割を用言の各用法ごとに整理したものである [12][13]. その中でも河原ら [13] は, 大規模汎用英語コーパスと Webから収集した文から格フレーム辞書を教師なしで構築する手法を提案した. 本研究では, この研究で構築された英語格フレームを用いる. 古川ら [5] は,格フレーム中の格要素,格の種類と疑問詞対応規則を定義して,問い返し文候補を生成する手法を提案した. しかし, この手法を用いて問い返し質問を行うためには,問い返しの対象となる格を推定する必要がある. そこで本研究では, 問い返しの対象となる格を適切に推定するために,文中の動詞との共起情報を用いる。 問い返し質問文生成の流れを図 2 に示す。まずはじめに,入力された曖昧な質問文に対して構文解析を行い,文中に出現する用言と用言の係る依存関係元の質問文曖昧な質問文問い返し文問い返しへの回答 What major truck road is located in Backford Cross? What major truck road is located? where was the road located? Backford Cross 表 3 有効な問い返し例 表 4 タスク全体の回答精度 タグ (格)を抽出する. 用言として判別する品詞タグは, $\mathrm{VB} ・ \mathrm{VBD} \cdot \mathrm{VBG} \cdot \mathrm{VBN} \cdot \mathrm{VBP} \cdot \mathrm{VBZ} の 6$ 種類の動詞タグとした。解析には Stanford Parserを用いた. 次に,抽出された格と用言のペアおよび格フレーム辞書を参照しながら,文中に出現しない格を辞書中の頻度順に抽出する. 用言の選択には, 抽出された中でもっとも文末に出現するものを優先した. また,質問文によく出現する格の頻度情報を反映させるため,質問応答の学習データ中に出現する用言(動詞)に係る格役割の頻度情報を用いる。学習データには HotpotQA 学習用データを用いた。格フレームから抽出された格の中から,学習データ中でもっとも頻度が高い格役割を問い返す格として決定する2).これは,質問文に頻出の格を問い返すことが質問応答の情報補完に有効と考えられるためである。ここで再度格フレーム中の抽出された格役割を参照し,その中で最も出現頻度の高い疑問詞を問い返す疑問詞として決定する。最後に,選択された用言と疑問詞を用いて問い返し文を生成する。例えば,図 2 の例では曖昧性を付与したユーザ質問文のうち最後尾の用言が “had” であり,格フレームから推定された必要な格役割のうち,質問文学習データ中で最も頻度が高いものが“advmo”であった. そこでこの格で最も頻度の高い“when”を用いて,“when did the writer have?”という質問を生成している. ## 4 問い返し質問応答による評価 ここまでに質問文に対する曖昧性付与と,この曖昧性を解消するための問い返し質問文生成手法を説明した。本節ではこの問い返しによって,実際に対話的な曖昧性解消が可能なのかについて評価を行う。まず問い返しタスクの設定を説明し,精度評価結果について述べる. 2)データセット中の用言(動詞)とそれに係る格の頻度を付録に示す. 元の質問文 曖昧な質問文 問い返し文 問い返しへの回答 元の質問文を入力した場合の出力 結合後の質問文を入力した場合の出力 Which author dedicated a 1985 romance novel to the author who did in 2009 and wrote under the pen name Gwyneth Moore? Which author dedicated a 1985 romance novel to the author who? when did the author dedicate? 2009 Eva Ibbotson Patricia Veryan 表 5 問い返しによって正解できなかった例 ## 4.1 タスク設定 タスクの概要を図 3 に示す. 本タスクではまず, 2 節の変換手法を用いて生成した曖昧な質問文をシステムの入力として与える. システムは受け取った質問文を基に問い返し質問文を生成し,ユーザの返答から追加情報を得る.こうして得られた追加情報と入力された曖昧な質問文とを,既存の質問応答モデルの入力とした場合の回答をシステムの出力とする. システムに用いる質問応答モデルは,2 節で用いたものと同様に曖昧性を含まない完全な質問文のみから学習した。問い返し質問文に対するユーザの返答は,元の質問文を知っている場合に答えることができる適切な返答を人手で用意した。曖昧な質問文とユーザからの返答を結合しモデルに入力した場合の出力回答が,曖昧な質問文のみを入力とした場合から程度改善されるかについて評価する。 ## 4.2 質問応答モデルの精度評価 問い返し質問による質問応答の改善度合いを測るため,問い返す対象の曖昧な質問文を以下のような制約で限定して実験を実施した. この条件に該当するものは,HotpotQA 開発用データセット中の質問文約 7,400 文に対して 312 文存在した。 1. 質問応答モデルの回答が変換による曖昧性付与によって正解 $\rightarrow$ 不正解となる質問文 2. 変換による久落箇所の長さが最小である質問文 3. 疑問詞から始まる質問文 (Normal Form) 上記の制約によって抽出された対象となる質問文 312 文に対してそれぞれ問い返し質問文生成を行ったところ,欠落箇所への問い返し質問が生成されている例が 123 文存在した $(39.4 \%)$. 有効な問い返しと回答の例を表 3 に示す. 問い返し文として有効な 123 文を用いた場合のタスク全体での回答精度は表 4 の通りである.表 4 中のスコアは,曖昧な質問文と問い返しによって得られた回答とを結合し,質問応答モデルに入力した場合の出力の正解率 EM と調和平均 $\mathrm{F} 1$ を表す。 これらの結果から,曖昧な質問文のみでは回答できない場合に,問い返しで得た追加情報を用いて質問応答の精度を向上することができることを確認できた. しかし,変換前はモデルが回答できるものだけを対象とした実験であっても,単純な結合だけでは完全な回答精度復元には至らなかった。これは,得られた追加情報だけではモデルが正確な回答を出力できないようなものが含まれていたか,あるいは追加で得られた情報の結合方法などに課題があったと考えられる.有効な問い返しによって正解を導き出せなかった例を表 5 に示す。表 5 では変換によって関係代名詞 “who”以降の従属節の内容が大きく欠落しており,ユーザから追加で得られた情報だけでは答えを正しく出力することができなかったと考えられる。 ## 5 まとめと今後の課題 本研究では,文構造に着目した質問文変換により情報を欠落させた曖昧な質問文を疑似生成し,これに対して適切な問い返し質問文を生成することで,対話的に曖昧性を解消できる質問応答システムを提案した。この結果,問い返しによって必要な情報を追加情報を得て質問応答精度を向上することができたものの,この情報の復元は限定的な範囲となった. 今後,変換によって生成した曖昧な質問文の品質向上や,より適切な用言や疑問詞を選択するための手法の提案などに取り組む必要がある. ## 謝辞 英語版格フレームを提供して頂いた早稲田大学の河原大輔先生と京都大学の黒橋禎夫先生に感謝いたします。 ## 参考文献 [1]Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [2]Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2369-2380, Brussels, Belgium, OctoberNovember 2018. Association for Computational Linguistics. [3]西田京介, 斉藤いつみ, 大塚淳史, 西田光甫, 野本済央,浅野久子. 機械読解による自然言語理解への挑戦. NTT 技術ジャーナル, 2019. [4] 大塚淳史, 西田京介, 斉藤いつみ, 西田光甫, 浅野久子,富田準二. 問い返し可能な質問応答: 読解と質問生成の同時学習モデル. 日本データベース学会和文論文誌, 2020. [5]古川智雅, 吉野幸一郎, 須藤克仁, 中村哲. 曖昧性を持ったユーザ発話に対する格フレームを用いた聞き返し発話候補の生成. 言語処理学会第 24 回年次大会発表論文集, pp. 905-908, 2019. [6]Yongfeng Zhang, Xu Chen, Qingyao Ai, Liu Yang, and W. Bruce Croft. Towards conversational search and recommendation: System ask, user respond. In Proceedings of the 27th ACM International Conference on Information and Knowledge Management, CIKM '18, p. 177-186, New York, NY, USA, 2018. Association for Computing Machinery. [7]Mohammad Aliannejadi, Julia Kiseleva, Aleksandr Chuklin, Jeff Dalton, and Mikhail Burtsev. Convai3: Generating clarifying questions for open-domain dialogue systems (clariq). 2020. [8]中野佑哉, 河野誠也, 吉野幸一郎, 須藤克仁, 中村哲. 文構造に基づく質問文への曖昧性付与と質問生成. 人工知能学会言語・音声理解と対話処理研究会 (SLUD)第 90 回研究会, 2020. [9]Richard Socher, John Bauer, Christopher D. Manning, and Andrew Y. Ng. Parsing with compositional vector grammars. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 455-465, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [10]Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. The Stanford CoreNLP natural language processing toolkit. In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 55-60, 2014. [11]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12]Daisuke Kawahara and Sadao Kurohashi. A fully-lexicalized probabilistic model for japanese syntactic and case structure analysis. In Proceedings of the Main Conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, HLT-NAACL '06, p. 176-183, USA, 2006. Association for Computational Linguistics. [13]Daisuke Kawahara, Daniel Peterson, Octavian Popescu, and Martha Palmer. Inducing example-based semantic frames from a massive amount of verb uses. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, pp. 58-67, Gothenburg, Sweden, April 2014. Association for Computational Linguistics. ## 付録. A 学習データから集計された格と頻度 表 A. 1 学習データ中に出現する用言の格と頻度
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-18.pdf
# 競技クイズ・パラレル問題の基本構造と文型 橋元 佐知佐藤理史宮田玲 小川浩平 名古屋大学大学院工学研究科 hashimoto.sachi@d.mbox.nagoya-u.ac.jp ## 1 はじめに 与えられた質問に対して答を導く質問応答 (QA) タスクでは、質問としてクイズの問題がしばしば用いられる。クイズ問題を解くシステムとしては、 クイズ番組 Jeopardy!で人間のチャンピオンを破った IBM の Watson が有名である [1]。この他にも、 TriviaQA [2], SearchQA [3], QANTA[4] など、クイズの問題を用いて作成された $\mathrm{QA}$ タスク評価用データセットが存在する。これらは英語のデータセットであるが、日本語でも、JAQKET というデータセットが作成されている [5]。 一般に、QA タスクでは、問題文がテキストとして完全に与えられるのが普通である。しかしながら、人間がクイズに解答する状況は、これとは異なる場合がある。問題文が読み上げられる形式の早押しクイズでは、解答者は、他の解答者に先んじるために、問題文が最後まで読み上げられる前に答えることがしばしばある。このような場合、解答者は、完結しない問題文から答を導くことが必要となる。 このような読み上げ・早押しクイズ特有のひっかけ問題に、以下のようなパラレル問題がある。 (1) アイルランドの首都はダブリンですが、アイスランドの首都はどこでしょう? たとえば、競技クイズの大会の一つである abc/EQIDEN ${ }^{1}$ の過去問では、全体の約 $11 \%$ のようなパラレル問題である。このような問題に 「アイルランドの首都は」の段階で答えると、「ダブリン」という誤答になりそうである。 しかしながら、優れた解答者は、その段階で正しい答を導くことが多い。実際、「12 時間ガチクイズ生放送」という YouTube 動画でパラレル問題の解答状況を調査したところ、95 問中 63 問が「アイルランドの首都で」に相当する段階で解答されており、 そのうちの 54 問が正解であった。 1) http://abc-dive.com 図 1 パラレル問題の 4 項構造 ここで、次のような疑問が生じる。 1.なぜ、問題文の途中までで、高い精度で正しく答えることができるのか? 2. これを機械的に実現することは可能か? これらの疑問に答えるために、我々は、まず、パラレル問題の基本構造と文型を調査した。そして、 その結果に基づいて、問題文の途中までで答を導く解答システムを試作した。本論文では、これらの内容について報告する。 ## 2 パラレル問題の基本構造と文型 パラレル問題の基本構造と文型を把握するために、abc/EQIDEN の過去問2) に含まれる約 1,000 問のパラレル問題を調査した。その結果、以下の観察結果を得た。 1. パラレル問題の基本構造は、図 1 に示すような 4 項構造である。 本論文では、これらの 4 項を順に、 $X, Y, Z, Q$ で表す。これらには、次の関係がある。 i. 対比関係: $X \leftrightarrow Z$ ii. 同一関係: $X: Y=Z: Q$ 2. パラレル問題を成立させているのは、 $X$ と $Z$ の対比関係である。 主要な対比関係の種類は、表 1 に示す 5 種類に整理できる。 3. 問題文は、図 2 に示すような 4 つのパートから構成される。 これらを順に、 $\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D}$ パートと呼ぶ。 $\mathrm{A}, \mathrm{C}$ パー 2) http://abc-dive.com/questions/ 表 1 対比関係の種類 } \\ 図 2 問題文のパート構成 トの末尾は、典型的には提題表現 (提題助詞「は」) であり、 $\mathrm{B}$ パートの末尾は、典型的には並列節の節末表現 (接続助詞「が」) である。これらの強い手がかりにより、人間は、各パートの終了点を正しく認識できると考えらえる。 以上の観察に基づき、問題文の途中までで正解を導くために必要なことを整理すると、以下のようになる。 1. Cパートまでで答えるすべての情報が揃っているので、通常の問題と同じように解ける 2. $\mathrm{B}$ パートまでで答える $X$ と対比関係にある $Z$ を推測できれば、通常の問題と同じように解ける 3. $\mathrm{A}$ パートまでで答える $Z$ に加え、 $X$ から $Y$ を推測し、その間の関係を同定できれば、通常の問題と同じように解ける ## 3 過去問のデータベース化 解答システムを作成する準備として、パラレル問題の過去問にアノテーションを施し、データベースを作成した。アノテーションでは、問題文を 4 つのパートに分割して末尾の正規化を行った後、表 2 に示す要素をマークアップした。アノテーションの具体例を図 3 に示す。 このようにマークアップしたテキストから、デー タベースのレコードを作成する。レコードの具体例表 2 マークアップする要素 図 3 問題文のアノテーション 表 3 データベースのレコード形式 を表 3 に示す。この例に示すように、レコードの作成では、以下のことを行う。 1. 順方向のレコードと逆方向の (A, B パートと、 $\mathrm{C}, \mathrm{D}$ パートを入れ替えた) レコードを作成する。 2. A, B, C, D の各パートの文型パターンも登録する。 3. $x$ と $z$ 、および、 $y$ と $w$ は、一方が空である場合は、他方で補完する (下線部)。 ## 4 解答システム 作成した解答システムの構成を図 4 に示す。本システムは、前節で示したデータベースを検索することで、問題の答を求める。システムは、以下のモジュールから構成されている。 図 4 解答システムの構成 ## 1. パート取得 問題文の各パートを順に取得する。まず、A パートのみを取得し、 $\mathrm{B}$ パート以降は、要求があった場合のみ取得する。 ## 2. パート解析 取得したパートを解析し、表 2 のマークアップ要素と文型に分解する。この分解には、デー タベースに格納されている、該当パートの文型パターンを利用する。一般に、複数の文型パターンが存在するので、可能な分解をすべて求める。 ## 3. 検索条件設定 得られた要素や文型、後述の解答判定により得られるフィードバック情報を用いて、データベースを検索する条件を設定する。 ## 4. データベース検索 設定した検索条件で、データベースを検索し、得られたレコードから答 $W$ を取得する。 ## 5. 解答判定 $W$ の種類に応じて、以下のように分岐する。 (a) $W$ が一意に定まる場合 $W$ を解答として出力する (b) $W$ が複数得られる場合 検索条件を強めるフィードバックを生成する (c) $W$ がひとつも得られない場合 検索条件を緩めるフィードバックを生成する 検索条件を強めるとは、検索条件に新たな要素を追加することを意味する。これには、次のパートを取得して要素を追加することも含まれる。一方、検表 4 検索条件に含める要素 索条件を緩めるとは、検索条件に含まれるいずれかの要素を削除することを意味する。表 4 に、それぞれのパートまで取得した場合に、どのような要素を検索条件に含めるかを示す。 この表の記号は、以下のことを意味する。 記号 $\mathbf{r}$ (required) 検索条件に必ず含める。 記号 o (optional) 取得済のパートに存在する場合に含める。検索条件を緩める場合は、この要素を削除する。削除した場合は、それ以降は使用しない。記号 a (additional) 検索条件を強める場合に追加する。追加によって $W$ がひとつも得られなくなる場合は、それ以降は使用しない。 たとえば、 $\mathrm{A}$ パートから $X$ と $y$ が得られ、これらで検索すると複数の $W$ が得られたとしよう。その場合は、まず、文型 $\mathrm{A}$ を検索条件に追加する。それでも $W$ がひとつに絞れない場合に、B パートを取得し、そこから検索条件に追加する要素を取得する。 なお、文型 $\mathrm{A}$ を追加して $W$ がひとつも得られなくなった場合は、文型 $\mathrm{A}$ を除外して、B パートに進む。 一方、 $\mathrm{A}$ パートから $X$ と $y$ と $D$ が得られ、これらで検索すると $W$ が得られない場合は、要素 $y$ を削除した条件、および、 $D$ を削除した条件で検索し、 それらの結果をマージして次の判断を行う。なお、 $X$ だけでも $W$ がひとつも得られない場合は、 $\mathrm{C}$ パー 卜まで取得して、それ以降の検索では、 $X$ と $Y$ を条件に含めない。「(r)」は、このことを意味する。 $\mathrm{C}$ パート以降では、 $z$ と $w$ がパートから得られない場合は、 $x$ と $y$ の情報を利用する。「o*」は、このことを意味する。 最終的に、 $W$ がひとつに絞れない場合、および、 $W$ がひとつも得られない場合は、解答不能とする。 表 5 過去問に正解するための検索条件 ## 5 解答にどのパートまで必要か ここでは、まず、データベースに登録した過去問 970 問を解く場合、どのパートまでで正解を出力できるかを調べた。その結果を表 5 に示す。過去問を解く場合は、正解を導くレコードは必ず存在するため、検索条件を緩めるフィードバックがかかることはない。この表の「要素」の闌は、各パートから取得した要素をすべて検索条件として用いた場合、「+文型」の欄は、それに各パートの文型を追加した場合の、答を一意に絞り込めた問題数を示す。 この表から以下のことがわかる。 1. 過去問の $98.8 \%$ (958/970) は、A パートで正解を導くことができる。 データベースのサイズが大きくなると、この值は低下すると考えられるが、実際に出題されるパラレル問題の大半は、事実上、A パートだけで正解が定まる問題となっている可能性がある。 2. 正解を導くのに文型が必要な問題は、 $3.3 \%$ (32/970)にすぎない。 $\mathrm{A}$ パートから $X$ 以外の要素が得られた 773 問中、文型が必要だったのは 13 問 $(1.7 \%)$ のみで、残りの 760 問は抽出した要素だけから答が一意に決定できた。一方、 $X$ しか得られなかった場合は、185 問中 19 問 $(10.3 \%)$ が文型を必要とした。このことは、設定した $x, y, D$ が、答を絞り込むために適切に機能していることを意味する ${ }^{3}$ 。実際、先の 760 問中、 $X$ だけで答を一意に絞り込める問題は 523 問で、残りの 237 問は $X$ 以外の要素が答の限定に寄与している。 次に、逆方向のレコードを使用する場合と使用しない場合で、正解を出力するために必要なパートが 3)これらの要素が抽出できれば、パート内の文型の差異は無視できる。表 6 逆方向のレコードの影響 どう変化するか調べた。その結果を表 6 に示す。逆方向のレコードを使用しない場合は、 $\mathrm{A}$ パートのみで正解を出力できる問題が 7 問増える。逆方向レコードを使用すれば、潜在的に解ける問題が 2 倍になることを考慮すれば、この差は許容できる。実際、現在のシステムは、過去問 970 問の前半部と後半部を入机替えた問題のうち、950 問を解くことができる4)。 現在のシステムは、解答判定に基づき検索条件を緩めたり強めたりするので、A パートの文型の摇れをある程度許容する。たとえば、以下の例では、いずれか一方が過去問として登録されていれば、他方を解くことができる。 (2) a. 『半七捕物帳』を書いたのは岡本綺堂ですが、『人形左七捕物帳』を書いたのは誰でしょう? b. 『半七捕物帳』の作者は岡本綺堂ですが、『人形左七捕物帳』の作者は誰でしょう? ## 6 おわりに 本研究では、競技クイズのパラレル問題の基本構造と文型を分析し、問題文の途中までで解答するシステムを作成した。現在のシステムは、答を導くための知識源として過去問のみを利用しており、過去問と同一の問題、前半と後半を入れ換えた問題、文型が一部異なる問題を解くことができる。しかしながら、完全に未知の問題に対しては無力である。 競技会に参加する人間の解答者は、過去問を調査するのに加え、出題の可能性があるパラレル問題を予想し、準備する。この準備は、本システムでは、 データベースに新たなレコードを追加することに対応する。パラレル問題の基本構造である 4 項構造において、まず対比関係となるぺア $(X$ と $Z)$ を見つけ、それらに対して残りの 2 項 $(Y$ と $W)$ を設定すれば、新しいレコードを作成できる。すなわち、未知の問題を解く能力と、問題を作成する能力は、本質的に同じである。 4)解けない 20 問は、前半部と後半部の表現の違いが原因である。 ## 参考文献 [1] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager, Nico Schlaefer, and Chris Welty. Building Watson: An overview of the DeepQA project. AI Magazine, Vol. 31, No. 3, pp. 59-79, Jul. 2010. [2] Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 16011611. Association for Computational Linguistics, 2017. [3] Matthew Dunn, Levent Sagun, Mike Higgins, V. Ugur Güney, Volkan Cirik, and Kyunghyun Cho. SearchQA: A new Q\&A dataset augmented with context from a search engine. CoRR, 2017. [4] Pedro Rodriguez, Shi Feng, Mohit Iyyer, He He, and Jordan L. Boyd-Graber. Quizbowl: The case for incremental question answering. CoRR, 2019. [5] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET:クイズを題材にした日本語 QA データセッ卜の構築. 言語処理学会第 26 回年次大会発表論文集, pp. 237-240, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-19.pdf
# 二段階 fine-tuning を用いた条件付きなぜ型質問応答技術 二宮大空 $\$$ 呉鍾勲 $\$$ Julien Kloetzer ${ }^{\ddagger}$ 飯田 龍 $\$$ 鳥澤 健太郎† †奈良先端科学技術大学院大学 先端科学技術研究科 $\ddagger$ 国立研究開発法人 情報通信研究機構 ninomiya.hirotaka.ng8@is.naist.jp \{rovellia, julien, ryu.iida, torisawa\}@nict.go.jp ## 1 はじめに 近年,SQuAD[1] のような事実を名詞で回答するファクトイド質問応答タスクについては,汎用的な事前学習言語モデル BERT(Bidirectional Encoder Representations from Transformers)[2] 等の発展によりその性能が人間の性能を超えたことが報告されている。一方,説明的な回答が求められるノンファクトイド質問応答は, 未だ発展途上であり, ノンファクトイド質問応答の一つであるなぜ型質問応答などにおいて盛んに研究が進められている $[3,4,5,6]$. 本研究では,より高度ななぜ型質問応答を実現するために,「なぜ地球温暖化が進むと海水面が上昇する」のような, なぜ型質問に条件 (「地球温暖化が進む」)が含まれるより複雑な質問に対して回答する質問応答を対象とする。本稿では,このような質問応答を条件付きなぜ型質問応答と呼ぶ.この条件付きなぜ型質問に回答するためには, 質問「なぜ (事象 A)と(事象 B)?」に対し, 事象 A の因果的帰結であり,かつ,事象 B の原因であるものを回答する必要があるため, 単純ななぜ型質問 (「なぜ(事象 B)?」)と比べてより難しい問題となっている.一方で,「なぜ地球温暖化が進むと海水温が上昇する?」のような条件付きなぜ型質問は,「地球温暖化が進むとどうなる?」といったどうなる型質問応答 $[7,8,9]$ の結果, 得られた回答が「海水温が上昇する」であった場合にその理由を問うための自然な質問の形式だと考えられるため, この条件付きなぜ型質問応答の技術を発展させることで, 単純な質問応答に付随して発生する, さらなる深掘りを行う質問に適切に回答することが可能になると考えられる。 ただし, 我々が知る限り, 条件付きなぜ型質問応答に特化した学習・評価用データは存在しない. そこで,本研究では,まず表 1 に示すような条件付き } & \\ なぜ型質問応答のデータを作成した。このデータ作成では, 日本語 Web4 億文書を対象に検索して得られたパッセージ1) (以降, 回答候補パッセージ)に対して,人手でアノテーションを行った。さらに,このデータを用い,BERTを fine-tuning することで回答候補パッセージのランキングを行う分類器を開発した ${ }^{2)}$. その際,なぜ型質問応答に関連する 4 つのタスク(因果関係認識 [10],因果関係連鎖判定,なぜ型質問応答 [3][4],ファクトイド質問応答 [11])の学習データも用い, 最終的な条件付きなぜ型質問応答の fine-tuning $の$ 前に実施する fine-tuning, もしくは, 条件付きなぜ型質問応答との Multi-task learning を行うことで,条件付きなぜ型質問応答の性能が向上するかの調査も行った。この結果, 組み合わせるタスクと組み合わせ方によってはべースラインである単純な BERT の fine-tuning と比較して有意に性能が向上することを明らかにした(P@1で約 $1.2 \%$ の向上). ## 2 関連研究 Oh ら [3] の日本語を対象としたなぜ型質問応答手法では,因果関係を認識する問題を系列ラベリング  問題と捉え, Conditional Random Fields を用いて文書中の原因部と結果部を特定した。それにより一文内の因果関係と文をまたがる因果関係を含む多様な形式で表される因果関係を自動抽出した後, 抽出した因果関係をなぜ型質問応答の回答リランキング時に利用し, 一文内の因果関係と文をまたがる因果関係が共に回答リランキングの性能向上に寄与していることを示した. さらに, Oh ら [4] はなぜ型質問応答において敵対的学習を用いたモデルを提案し, 回答精度を大幅に向上させた。 また,英語を対象にしたノンファクトイド質問応答に関して, Fan ら [12] は回答が長文となる質問応答データセット ELI5 を作成している. ELI5 のデー タ中の約 $45 \%$ が why から始まるなぜ型質問であるが,ELI5 の全データを対象にした評価では Seq2Seq をべースにした手法の性能は人間の性能を大幅に下回っていることが報告されている。また, Hashemi ら [13] は Web から抽出したノンファクトイド質問を含む質問応答データセットを作成した。 ## 3 条件付きなぜ型質問応答のデータ 作成 1 節で述べたように,条件付きなぜ型質問は典型的には「なぜ (事象A) と (事象B)?」という形式で記述されるため, 事象 $\mathrm{A}$ と事象 B に埋まる表現の対が必要となる. この 2 つの事象を表す表現は一般的には「なぜ地球温暖化が進むと海水温が上昇する?」 の「地球温暖化が進む」と「海水温が上昇する」の対のように因果関係が成り立つ対であると考えられるため, そのような対を自動で収集して質問を作成する。一方,そのような人工的な条件付きなぜ型質問だけでは人間が記述する多様な条件付きなぜ型質問をカバーできない可能性があるため, 自然な条件付きなぜ型質問についてもデータを作成し, 評価を行う. データ作成の手順は下記の通りである. ## 手順 1 : 条件付きなぜ型質問の作成 Train, Dev1, Dev2 の質問の作成方法として, まずは Hashimoto ら [7] の因果関係認識器を Web40 億文書に適用して得られた因果関係を表す原因句と帰結句の対を利用し,「なぜ(原因句)と(帰結句)」とすることで人工的な条件付きなぜ型質問を作成する. 一方, 最終評価用のデータ (Test) の作成時には,質問は Web40 億文書から抽出した「なぜ」を含む単語列から抽出した条件付きなぜ型質問である.詳細を付録 A で述べる. 質問の作成後, 質問が曖昧 でない自然なものであるかをアノテータ 3 名による多数決で判定した。 手順 2 : 回答候補パッセージの抽出とアノテーション 手順 1 で得られた各質問に対して, Murata らの検索手法 [14] を用いて, Web4 億文書から質問に対する回答が含まれている可能性が高い回答候補パッセージを最大 20 件抽出した. さらに, 質問と回答候補パッセージを見て, 回答候補パッセージ中に質問に対する答えが含まれているかをアノテータ 3 人で判定し, 多数決でラベルを決定した。 ${ }^{31}$ 本研究で作成したデータの 4$)$ の総事例数とそれぞれの正例の割合は表 2 に示す通りである.5) ## 4 比較手法 条件付きなぜ型質問応答とは同じ質問応答という観点で関連するファクトイド質問応答 (以降, FQA) [11], なぜ型質問応答(以降,WhyQA) [3,4], また,因果関係を対象とするという点で関連すると考えられる因果関係認識(以降,Causality)[10], 因果関連連鎖判定(以降,Chain)の学習データ(それぞれの詳細は表 3 参照)も利用することで条件付きなぜ型質問応答の性能が向上するという仮説に基づき,下記の Step1と Step2 からなる二段階の fine-tuning 手法を実験する。 Step1 事前学習済みの BERT モデルをCausality, Chain, WhyQA, FQAのいずれか(もしくはその組み合わせ)のデータで fine-tuning する. Step2 Step2 で得られた fine-tuning 済み BERT モデルを Causality, Chain, WhyQA, FQA のいずれか(もしくはその組み合わせ)のデータと条件付きなぜ 3) Train, Dev1,Dev2においては,答えが含まれていると 1 人以上判定したものは正例である可能性が高いと考え,それらに対して質問に対する答えを回答侯補パッセージから抽出する作業をアノテータ 3 人で行った. その後, 抽出可能であるかにより最終的なラベルを決定した。 4) Train, Dev1,Dev2 で質問が重複しないようにランダムに分割する。 5) Oh[4] が利用している一般的ななぜ型質問応答データの正例の割合は Train, Dev, Test でそれぞれ $12.5 \%, 23.4 \%, 24.1 \%$ であり, それらと比べて正例の割合が小さく, ランキングがより困難な問題となっている. 表 3 二段階 fine-tuning で用いるタスクの詳細 & & \\ 条件付きなぜ型質問の作成に用いた Hashimoto ら [7] の因果関係認識器は因果関係認識のデータで学習されているため, 条件付きなぜ型質問応答に関連する情報を含まないように, Train, Dev1, Dev2 中の条件付きなぜ型質問の作成に用いた句が含まれる事例を, 因果関係認識と因果関係連鎖判定のデータからそれぞれ 3,675 件, 985 件除外した.表 4 はこれらを除外した件数である. 表 4 関連するタスク 4 種類のデータセット 型質問応答(以降,CoWhyQA)のデータを用いて Multi-task learning でさらに fine-tuning する. ## 5 実験 ## 5.1 実験設定 実験で利用する BERT のモデルサイズは Devlin ら Kadowaki ら [8] と同様に, 自動検出された因果関係を含むテキスト約 22 億文のコーパス(データサイズは 353GB であり, T5[15] の事前学習で利用されているコーパスの約半分に相当する [11])を用いる. このコーパスは, Oh ら [3] の因果関係認識器により検出された文とその前後の文で構成された 7 文のパッセージから得られた文集合からなる. 事前学習時のバッチサイズは 4,096 であり, token 最大長 128 で 100 万ステップ, さらに追加で token 最大長 512 で 10 万ステップ事前学習を行っている6). 6)事前学習と fine-tuning 時には Kadowaki ら [8] と同様に learning rate warmup (warmup rate $=0.01$ ) を用いた. fine-tuning 時のバッチサイズは 32 であり, 学習率は 8e-6, 9e-6, 1e-6 の 3 通り, epoch 数は 1, 2, 3 の 3 通りの組み合わせである 9 通りから Dev の P@1 (最上位の回答の精度)が最大となるパラメタを手法ごとに選択した. Step1 のモデル選択に関しては WhyQA の場合はDev1のP@1で,それ以外はDev1 の平均精度でベストなモデルを選択した. 最終的な条件付きなぜ型質問応答の評価では $\mathrm{P} @ 1$ に加え, MAP(回答の平均精度の平均値)でも評価し, 各手法の結果を比較する. ベースラインとして, 前述の因果関係を含むテキスト約 22 億文のコーパスで事前学習した BERT モデルを条件付きなぜ型質問応答のデータだけで fine-tuning したものを利用する. また, 二段階 fine-tuning で用いるデータセットの事例数を表 4 に示す. 二段階 fine-tuning $の$ Step1, Step2におけるパラメタ探索範囲や学習方法, その他の実験設定は共に fine-tuning 時の設定に従う. ## 5.2 実験結果 結果を表 5 に示す. 表の (c)〜(f) が Step1 の finetuning の学習データを変更した場合の結果であるが, この内, WhyQA と FQA で fine-tuning した場合が Dev1, Dev2, Test で一貫して性能が向上しており, 因果関係認識に関するデータ (Causality, Chain) 表 5 二段階 fine-tuning に関する実験結果 } & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multicolumn{3}{|c|}{ Test } \\ Oracle は全ての質問に対して適切に回答できた場合の理想的な精度を, 相対值は「(手法ごとの P@1)/(Oracle の $\mathrm{P} @ 1 ) \times 100 」$ で求めた值である.P@1における括弧内の值は BERT(ベースライン)の $\mathrm{P} @ 1$ との性能差を表しており, Dev2 と Testにおいては McNemar 検定(有意水準 5\%)で有意差が確認されたものを†で示す. よりも質問応答に関するデータ(WhyQA, FQA)で Step1 の学習を行うことに効果があると考えられる.また, 表 5 の $(\mathrm{g}) \sim(\mathrm{j})$ が Step1 の fine-tuning を行わず, Step2 で Multi-task learning を行った結果であるが,この結果については特に WhyQA で Multi-task learning した場合の Test の P@ 1 が最も高くなっており,対象となる条件付きなぜ型質問と最もタスクが近いなぜ型質問応答との Multi-task learning に効果があったと考えられる. また,表 5 の (c)と (d) に着目した場合,Dev2,つまり, 質問の形式が「なぜ(事象 A)と(事象 B)」 の場合には $\mathrm{P} @ 1$ が向上しているのに対し, 自然な質問の形式である Testにおいては P @ 1 がベースラインよりも低下するという結果となった。これは Causality や Chain の学習データの個々の事象を表す表現が必ず名詞+助詞+述語であるのに対し, Test の質問ではそれらの表現が「運動すればなぜ内藏脂肪が減るのでしょうか?」の「運動する」のように必ずしも名詞+助詞+述語の形式とはなっていないことが影響している可能性がある. 最後に, Step1 の選択肢と Step2 の選択肢を組み合わせることで性能が向上するかについても調査を行った. 具体的には Step1 で効果があった Causality と FQA(表 5 の (c)〜(f) で Dev2 の P@1 の上位 2 つ)を利用する場合としない場合の組み合わせ 4 通り,また, Step2で効果があった Chain, WhyQA, FQA(表 5 の $(\mathrm{g}) \sim(\mathrm{j})$ で Dev2 の P@1 がベースラインよりも良かったもの)を利用する場合としない場合の組み合わせ 8 通り,合わせて 32 通りに対して実験を行い, Dev2 の $\mathrm{P} @ 1$ が最大となる組み合わせを決定した.この結果, 表 5 の (k)Step1=FQA, Step2=CoWhyQA+WhyQA, (1)Step1=Causality+FQA, Step2=CoWhyQA の 2 つが同じ $\mathrm{P} @ 1$ だったため選択された. ただし,表に示すように,この2つでTestの $\mathrm{P} @ 1$ が良かった $(\mathrm{k})$ のその值は, (i) に示す Step1=なし, Step2=CoWhyQA+WhyQA と変わらないため, Step1 と Step2 の組み合わせは効果がなく, Step1 もしくは Step2 のいずれかで類似するタスクの学習を行うだけで十分であることがわかる。一方で, (k) と (l)の Dev2の P@1の值は他の (b)~(j) のいずれをも上回っているため, 質問の形式が学習データと同じ場合においては Step1 と Step2 で複数のタスクを組み合わせることに効果があることがわかる.このように, 現状では質問の形式(人工的な質問 or 自然な質問)が学習データと異なることが,二段階の fine-tuning が有効であるかに影響していると考えられるため, 今後は質問の形式が異なっていたとしても性能を劣化させない頑健な手法を開発していく必要がある. ## 6 おわりに 本研究では, 条件が含まれるなぜ型質問に対する応答技術の開発を目指し, 条件付きなぜ型質問応答のデータを作成した. さらに,BERTを用いた分類器を構築し, 条件付きなぜ型質問応答に関連するタスクを用いて二段階で fine-tuningを行うことで,分類器の性能向上を図った. 実験の結果, 二段階 fine-tuning を行うことで, 最上位の回答の精度 P@1 がベースラインである BERT を約 $1.2 \%$ 上回った。 ## 参考文献 [1] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [3] Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Motoki Sano, Stijn De Saeger, and Kiyonori Ohtake. Whyquestion answering using intra- and inter-sentential causal relations. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1733-1743, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [4] Jong-Hoon Oh, Kazuma Kadowaki, Julien Kloetzer, Ryu Iida, and Kentaro Torisawa. Open-domain why-question answering with adversarial learning to encode answer texts. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4227-4237, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Fatima T AL-Khawaldeh. Answer extraction for why arabic questions answering systems: Ewaq. arXiv preprint arXiv:1907.04149, 2019. [6] Andrei Dulceanu, Thang Le Dinh, Walter Chang, Trung Bui, Doo Soon Kim, Manh Chien Vu, and Seokhwan Kim. Photoshopquia: A corpus of non-factoid questions and answers for why-question answering. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [7] Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, István Varga, Jong-Hoon Oh, and Yutaka Kidawara. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 987-997, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [8] Kazuma Kadowaki, Ryu Iida, Kentaro Torisawa, JongHoon Oh, and Julien Kloetzer. Event causality recognition exploiting multiple annotators' judgments and background knowledge. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5816-5822, Hong Kong, China, November 2019. Association for Computational Linguistics. [9] Canasai Kruengkrai, Kentaro Torisawa, Chikara Hashimoto, Julien Kloetzer, Jong-Hoon Oh, and Masahiro Tanaka. Improving event causality recognition with multiple background knowledge sources using multi-column convolutional neural networks. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, 2017. [10] Chikara Hashimoto, Kentaro Torisawa, Stijn De Saeger, Jong-Hoon Oh, and Jun'ichi Kazama. Excitatory or inhibitory: A new semantic orientation extracts contradiction and causality from the web. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 619-630, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [11] 関直哉, 水野淳太, 門脇一真, 飯田龍, 鳥澤健太郎. ファクトイド質問応答における bert の pre-trained モデルの影響の分析. 言語処理学会第 26 回年次大会発表論文集, pp. 105-108, 32020. [12] Angela Fan, Yacine Jernite, Ethan Perez, David Grangier, Jason Weston, and Michael Auli. ELI5: Long form question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3558-3567, Florence, Italy, July 2019. Association for Computational Linguistics. [13] Helia Hashemi, Mohammad Aliannejadi, Hamed Zamani, and W Bruce Croft. Antique: A non-factoid question answering benchmark. In European Conference on Information Retrieval, pp. 166-173. Springer, 2020. [14] Masaki Murata, Sachiyo Tsukawaki, Toshiyuki Kanamaru, Qing Ma, and Hitoshi Isahara. A system for answering non-factoid japanese questions by using passage retrieval weighted based on type of answer. In NTCIR, 2007. [15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv preprint arXiv:1910.10683, 2019. ## 付録 ## A 条件付きなぜ型質問の抽出 Web40 億文書から抽出した「なぜ」を含む単語列から条件付きなぜ型質問を抽出する際, 質問中に条件を表す部分を含む必要があるため,以下を全て満たすものを対象とする.単語や品詞の連続は+で表す. ・動詞,または形容詞+接尾辞を単語列中に 2 つ以上含む. $\cdot$「と,ば,たら」で区切った時, 前後半共に動詞,または形容詞+接尾辞が存在する。 ・以下のいずれかを満たす. - 動詞+「と」を含む. ただし,動詞は「いう,言う,よぶ,呼ぶ,思う,感じる,する」を除く。 一未尾が「ば,たら」の動詞を含む。 - 動詞+末尾が「ば,たら」の接尾辞を含む. - 形容詞+接尾辞+「と」を含む. 一形容詞十末尾が「ば, たら」の接尾辞を含む.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-1.pdf
# ニューラル機械翻訳に乱数が与える影響 ## 矢野貴大鳥取大学 工学部 \\ b17t2114b@edu.tottori-u.ac.jp \author{ 村上仁一 \\ 鳥取大学工学部 \\ murakami@tottori-u.ac.jp } ## 1 はじめに 機械翻訳の方式の一つに,Neural Machine Translation(以下, NMT)[1] がある. NMT は学習を行う際に乱数を用いている. ぞのた, 同じデータで学習を行ったとしても出力が異なる.しかし, 精度に大きな差はないとされ,今まであまり考慮されてこなかった.本研究では, NMT において同じデータで学習を行った際,どの程度翻訳結果か変動するかについて調査を行う. ## 2 翻訳評価の手法 ## 2.1 翻訳確率 (PRED) 翻訳確率とは, 入力が $\mathrm{a}$ であったときに $\mathrm{b}$ が出力される尤もらしさを数値化したものである.この翻訳確率の対数をとった値が,PREDである. PRED の值が 0 に近いほど,良い翻訳である。 ## 2.2 BLEU,METEOR,TER BLEU[2],METEOR[3],TER[4] は機械翻訳の自動評価の手法である . 参照文と翻訳結果をもとに評価を行う ## 2.3 人手評価 著者自身が各出力文に対し $\bigcirc, \triangle, \times$ の 3 つの評価基 準を表 1 に示す。 ## 表 1 人手評価の基準 \\ ## 3 調査方法 ## 3.1 学習 調査方法における学習の過程では, 同じ学習データを異なる乱数を用いた上でNMT に学習させることで,8 個の NMT を生成する。 ## 3.2 翻訳 テスト文を 8 個の NMT 光れ光れに翻訳させ, 8 個の翻訳結果を生成する。 ここで生成された翻訳結果を用いることで,翻訳結果の変化についての調査を行う. ## 4 実験 4.1 実験条件 本研究における調査では, OpenNMT[5] を用いて日英ニューラル機械翻訳を行う。 ## 4.2 実験データ 調査に用いるデータの内訳を表 2 に示す. なお, 学習文は全て単文である。 表 2 実験データ ## 4.3 出力結果 出力結果を表 3 に示す.なお,表 3 における評価の列は , 人手評価の結果を示す。 表 3 出力結果 表 3 の結果より,乱数によって出力結果が異なってくることが確認できた . ## 4.4 自動評価結果 自動評価結果を表 4 に示す.なお,表 4 に示す PRED 值は,テスト文 16,000 文各文に対して導出された PRED 值の平均値である。 表 4 の結果より,自動評価の値も異なってくることが確認できた . この表の PRED で最良の値を示したのは NMT 7 であった.また,BLEU で最良の値を示したのは NMT 5であった. ## 4.5 人手評価結果 翻訳を行ったテスト文のうちのランダムな 100 文に対し, 評価を行った.結果を表 5 に示す。 表 5 人手評価結果 (100 文) 表 5 の結果を見ると,モデルによって人手評価の結果が大きく異なることが確認できる.このことより,NMT は乱数の影響を強く受けるということが言える。 また,ここで表 5 の結果と表 4 の結果を比較する. PRED の最も良かった NMT 7 と,BLEU の最も良かった NMT 5 は,どちらも人手評価では振るわなかった. このことより、自動評価と人手評価の結果が一致するとは限らないということが言える。 ## 5 考察 ## 5.1 PRED 值平均 人手評価に対応する PRED 値の値の平均を表 6 に示す. 表 6 人手評価と対応する PRED 値の平均 表 6 より, PRED 值が高いほど良い人手評価になる傾向にあることが確認できた. ## 5.2 出力結果 (PRED と人手評価の一致した例) 表 7 に PRED が人手評価と対応がとれている例, 表 8 , 9,10に PRED と人手評価が対応が取れていない例を示す. 表 7 PRED と人手評価の一致した例 1 表 7 については, 人手評価○の文に対しては高めの PRED 值が , × の文に対しては低めの PRED 値が出ていることが確認できる。 表 8 PRED と人手評価の一致した例 2 (繰り返し文) 表8について, NMT 1,8の出力では the president が繰り返し発生している.しかし意味は取れている文であるため, 人手評価では○とした . 光して PRED についても良い値を示している.このことより,この例において PRED は繰り返し文に対応出来ていた。 表 9 PRED と人手評価の一致した例 3 (He, She 入れ替わり) 表 9 において NMT 5 の出力は He であるべき部分が She となっている. 光してこの出力の PRED 值は下から 2 番目に悪い.PRED 値は類似の例文をもとに導出する. 今回 She の出力で PRED が悪かったのは , 類似の例文に Heで始まるものが多かったからではないかと考える. 5.3 出力結果 (PRED と人手評価が一致しなかった例) 表 10 PRED と人手評価が一致しなかった例 1 (肯定否定が逆でも PRED に大差なし) 表 10 について説明する.NMT2, 4,8 の出力は翻訳すると「自分の将来に不安を感じている」といったニュアンスになる.しかし入力文は「自分の将来に不安を感じていない」であり,これらの出力文は意味が逆になって出力されている.しかし PRED 值においては正解の出力文と大して変わらない値となっている. 表 11 PRED と人手評価が一致しなかった例 2 (意味不明でも PRED は光こまで悪くない) 表 11 において,NMT4,5,8 の出力は入力文と大きく異なる訳であるにもかかわらず,PRED の値は良い. この原因については , 類似する例文が少なかったからではないかと推測する。 表 12 PRED と人手評価が一致しなかった例 3(PRED 低いけど人手評価は○) 表 12 において , NMT4, 6 の出力は人手評価では○とした . しかし PRED 值で見ると , ワーストの 2 文である . ## 5.4 各文に対して最良の PRED 値を選択した際の人手評価結果 表 13 に示す.なお, 表の「PRED 最良」の行では各入力文に対する出力文に最も低い PRED 値を選択した際の結果を示す.また,「理論値」の行では各入力文に対しての出力文に人手評価が最も良いものを選べた際の結果を示す。 表 13 人手評洒結果 (100 文) 表 5 と表 13 を比較すると,PRED 値が最良の出力を選択することで人手評価結果が改善することが確認できた.このことより,PREDによってある程度は翻訳の良し悪しを判定できることが分かった . しかし理論値と比較すると , 改善の余地があることが分かる. 5.5 エポック数の妥当性について エポック数の値が 100,000 で適切であるかどうかを検証した . ステップ数別の PRED と BLEU の值を表 14 に示す. 表 14 を見ると ,PRED の値は 100,000 以降で , BLEU の值は 70,000 以降頭打ちになっている.光のため,エポック数の值は 100,000 が適切であると判断した. ## 6 おわりに 本研究では, NMT において同じデータで学習を行った際,どの程度翻訳結果が変動するかについて調査を行った. 調査結果より, 同一の学習データで学習させたとしても出力は異なることが分かった . また, 各翻訳評価においても差が生じるということが分かった . 考察より, PRED 値を用いることで NMT の出力を改善出来ることが分かった. ## 参考文献 [1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. CoRR, abs/1409.0473, 2014. [2] K. Papineni, S. Roukos, T. Ward, and W. J. Zhu. BLEU: a method for automatic evaluation of machine translation. In ACL, 2002 [3] S. Banerjee and A. Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. pages 6572 , 2005. [4] Matthew Snover, Bonnie Dorr, Richard Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. Proceedings of Association for Machine Translation in the Americas, 2006. [5] G. Klein, Y. Kim, Y. Deng, J. Senellart, and A. M. Rush. OpenNMT: Open-source toolkit for neural machine translation. ArXiv e-prints, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-20.pdf
# 価値判断を伴うファクトイド質問応答 $\dagger$ 奈良先端科学技術大学院大学 先端科学技術研究科 ‡国立研究開発法人 情報通信研究機構 (NICT) seki.naoya.si8@is.naist.jp \{junta-m, rovellia, julien, ryu.iida, torisawa\}@nict.go.jp ## 1 はじめに ユーザはしばしば「糖尿病患者は何を食べるといい?」のように、何かをうまくやる,もしくはまずいことを避けるための質問を発する。このような質問のうち,名詞句を回答とするものを,本研究では「価値判断を伴うファクトイド質問」(Opinion Factoid Question Answering, 以下 OFQA)と呼ぶ。従来の質問応答システムでは, 価值判断を伴うファクトイド質問には対応できない。その結果, 例えば質問「糖尿病患者は何を食べるといい?」に対し,「ケーキ」といった不適切な回答が出力されてしまう. 本研究では, 日本語の OFQA データセットを作成し, これと, 価值判断を考慮していないファクトイド QA のデータセットや一見質問応答とは関連の薄い因果関係認識認識に関するデータセットを組み合わせて fine-tuning した, BERT ベースの質問応答手法を開発した.この精度はセンチメント分析等,複数の異なるタスク用の分類器/抽出器を組み合わせたパイプライン方式よりも精度が高かった。これらのパイプライン方式の開発では, 価値判断の根拠 (例えば,「糖尿病患者がケーキをたべてはまずい」 の「まずい」)を表す入力中の表現を特定するため追加的なアノテーション等も行ったが, それらの追加アノテーションや各種モジュールを使用しなくても,BERT がいわゆる end-to-end でょり高い精度を達成できたことは興味深い。 ## 2 データセットの構築 本研究で構築した OFQA データセットは, 質問・回答候補・回答候補が抽出された文(以下,元文) の 3 つ組と, 質問に対し回答候補が適切か否かの二值ラベルで構成される. 本研究では, 関らのファク トイド $\mathrm{QA}$ (以降, $\mathrm{FQA}$ と呼ぶ. 価値判断は考慮されていない) データセット [1] の訓練事例から抽出した 7,887 事例(抽出条件の詳細は付録を参照)と,大規模情報分析システム WISDOM X[2][3] で新規に収集したファクトイド質問応答の出力からデータセットを作成する.WISDOM X は,ユーザから与えられた質問からバイナリパタンもしくはユナリパタンと呼ばれるパタンを抽出し,それらパタンを用いて Web 文書 40 億件から回答候補を検索する.表 1 に検索結果の例を示す. バイナリパタンとは,係り受けで繋がった 2 つの変数化された名詞をもつ「A は B 引き起こす」のようなパタンを指す [4]. ユナリパタンは 1 つの変数化された名詞をもつ「Aを引き起こす」のような形式で表されるパタンを指す. WISDOM X では, Web40 億文書に形態素解析など処理を行い,バイナリ(ユナリ)パタンを抽出し,検索用インデックスを構築する。検索の際は,与えられた質問からパ夕ンとパタンの変数に当てはまる名詞(例 : A が B を食べる, $\mathrm{A}=$ 糖尿病患者)を抽出し,検索用インデックスに照合して回答候補を検索する。また,柔軟な照合を行うために,抽出されたパタンと含意関係にあるパタンも利用して回答候補を検索する [4].こうしたパタンを用いることで単純に名詞等でキー ワード検索するよりも,より少数の,正解の可能性が高い回答候補を絞り込むことができる. アノテーション作業では, 表 2 に示したような質問, 回答候補, 元文の 3 つ組を対象に, 質問に対して回答候補が適切か否かを判定する。ただし,質問 は「といい?」といったような表現で表される価値判断を伴う質問となっているため,その価値判断も含めて判定を行う.例えば,この表の質問に対しては, 表 1 にある元文から抽出された回答候補「ケー キ」は「糖尿病患者が食べるといいもの」ではないので,正解とはみなされない. \\ また, 上記のアノテーション作業時, 元文中に回答候補の価值判断の根拠(以降,根拠表現と呼ぶ) があれば,その根拠表現を特定する作業も同時に行なった,表 2 の例では,「血糖値を下げるのに効果的です」が根拠表現となる. 抽出した根拠表現は後述する比較手法で用いる. 質問文については,Web40 億文書から質問文を疑問代名詞の有無など簡単なルールで抽出した後, 質問一般性判定によるフィルタリングを行なった。この判定では,例えば「IOT で何が変わるのか?」のように,質問文が単独で知識,意見を求めている質問として成立していれば質問一般性が成り立つと判断する。一方, 「この英単語の意味わかりますか?」 のように,文脈がないと理解できない質問については質問一般性が成り立たないと判断する. 本研究では, NICT が開発した BERT ベースの質問一般性判定モデルを用いて質問一般性を判定する. 判定の結果,約 161 万件のファクトイド質問が獲得できた。 このようにして得られたファクトイド質問について, UniLM[5] を用いた質問変換器で WISDOM X で検索しやすい形式の質問に言い換えた質問を作成する. 例えば, Webから抽出した質問が「Q1. 糖尿病患者って何を食べるんですかねえ?」だとすると,「糖尿病患者は何を食べる?」のように言い換えた質問を作成する.ついで,言い換え後の質問に「といい?」または「とまずい?」のいずれか,価値判断を表す表現をランダムに選んで付加し, 価値判断を伴う質問を作成する.なお,「といい?」といった表現を付加すると不自然な質問となる場合があるため,最終的に人手で質問が意味的に自然か否かを判定した。約 161 万件のファクトイド質問からサンプリングした 10,000 件の質問に対して上記判定を行い,7,643 件の質問を得た。 ついで,WISDOM X は価值判断を伴う質問に対応していないため,「といい?」あるいは「とまずい?」を付加する前段階の質問について,WISDOM $\mathrm{X}$ で回答候補と元文を検索する.質問あたりの回答候補の検索上限数は 10 件とし, 回答が重複しないようにした。この結果, 7,643 質問に対し 29,659 件の回答候補と元文の組が収集できた。 これらの回答候補には,価值判断を考慮しなくても正解とは言えない回答候補も含まれる. そうした回答候補を大量にアノテーションするのは効率が悪いため, 関らの FQA 分類器 [1] を用い, 価値判断を考慮しない場合に正解とみなされる事例のみをアノテーションすることにした。さらに,元文に根拠表現が含まれる可能性の高い事例を抽出するため,元文の末尾の表現に着目してフィルタリングを行った (詳細は付録参照). 最終的に, 5,273 件の質問,回答候補,元文の組が得られた。一方,評価時にこのフィルタリングの影響を軽減するため, 本研究では,1,774 件の質問・回答・元文の組をフィルタリング抜きで作成し, テストデータに加えた. これらのデータに加えて, 関らの FQA データセッ卜 [1] の訓練事例の正例から抽出した 7,887 事例を加えて, 価値判断も考慮した正例/負例のアノテー ション, さらには前述した価值判断の根拠の特定のアノテーションを行った. 回答候補の適切さ及び根拠表現の特定のアノテーションは一つのインスタンスに対して,3名のアノテータが行い,正例/負例のラベルは多数決で決定した.異なるアノテータによるラベルの一致度を示すカッパ値はテストデータに追加したフィルタリングしていないデータに関してが 0.53 , それ以外が 0.57 であり,良好なアノテー ションであると考える。ついで,質問が重複しないようにこれらのデータを以下の表 3 にあるように訓練, 開発,テストの 3 種に分割した。 ## 3 手法 本研究では, 提案手法, 自明なべースライン手法の他に比較手法として複数のモジュールを組み合わせたパイプライン方式も二つテストした。以下では,まず,それらのパイプライン方式を説明する. なお,提案手法も含めて,以下で述べるべース ライン, 比較手法で使われている各モジュールは, すべて全て 22 億文からなる因果関係文を含む Web コーパス(サイズは約 353GB)[6] で事前学習した ## 3.1 比較手法 図 1 根拠表現を用いるパイプライン方式 パイプライン方式の一つ目は,ファクトイド $\mathrm{QA}$ モデル [1], 根拠表現抽出器, センチメント分析を組み合わせたパイプライン方式である(図 1).この手法では,ファクトイド $\mathrm{QA}$ モデルで正解とされた回答に関して, 根拠表現抽出器を用いて価値判断の根拠を特定し,その根拠のセンチメントが質問の価值判断と一致している場合(つまり,「といい?」 の質問に対しては positive なセンチメント,「とまずい?」の質問に対しては negative なセンチメント) のみ,回答を正解とする. ファクトイド $\mathrm{QA}$ モデルは BERT を関らの FQA のデータセットと OFQA データセットの二つでマルチタスクで fine-tuning したものを用いる. 根拠表現抽出器には BERT のトークン分類モデル(つまり,各トークンの出力に二値の softmax を接続し,そのトークンが根拠表現にふくまれるかどうか判定するモデル)を用い,前述したように,データセットに付与された価值判断の根拠表現で fine-tuning した. センチメント分析器も同様に BERT を用いた二值分類器である. (詳細は付録). もう一つのパイプライン手法は, ファクトイド $\mathrm{QA}$, WISDOMXのどうなる型 QA[7][8][6] とセンチメント分析器のパイプライン方式である (図 2). WISDOM X のどうなる型 QA は「A とどうなる?」 というタイプの質問に A の因果的帰結で回答するサービスである.例えば,質問「糖尿病患者は何を食べるといい?」と回答候補「ケーキ」から「糖尿病患者はケーキを食べるとどうなる?」というどうなる型質問を作成し検索すると, 「救急車で運ばれ 図 2 どうなる型 $\mathrm{QA}$ を用いるパイプライン方式 る」といった因果的な帰結句が得られるが,これらの帰結句は回答候補に対する価値判断の根拠とも考えられる.この手法では,こうした見方に基づき,帰結句にセンチメント分析を適用した結果と質問の価值判断が一致した回答で, ファクトイド $\mathrm{QA}$ が正例とみなした回答だけを正解とする. ファクトイド $\mathrm{QA}$ とセンチメント分析器は前述したものを再利用した. ## 3.2 提案手法 本節では, 提案手法として, BERT の一段階目のファインチューニングを OFQA と異なるタスク,二段階目を OFQA で学習する二段階 fine-tuning を提案する。より具体的には, 関らの FQA データセット [1] と, Hashimoto らの因果関係認識データセット [7] を合わせたデータで一段階目の fine-tuning を行い, FQA と因果関係認識に対する性能の平均が最も性能の高いモデルを二段階目の fine-tuning に用いた。価値判断を伴わない FQA と OFQA では回答が正解となる基準は異なるが,どちらもファクトイド質問を対象とした質問応答であり, 必要とする知識も共通する部分があると考えられる。また,前述したように,元文中の回答候補にまつわる表現の因果的帰結 (「糖尿病患者がケーキを食べる」に対して 「救急車で運ばれる」)は価值判断と密接に関係があると考えることもできる。提案手法では,これらの仮説に基づき FQA と因果関係認識のデータセットで一段階目の fine-tuningを行い,それらのデータセットが含む知識を OFQA で使うことを狙う。 ## 4 実験 提案手法及びベースライン, パイプライン方式の比較手法で用いる FQA モデルの fine-tuning 時には表 6 (付録を参照)のパラメータを探索した。前 述したパイプライン方式の比較手法の他に, ベー スライン手法として前述した BERT $\mathrm{BARGE}$ を (1) 関らの FQA データセット, (2) OFQA データセット, (3)FQA データセットと OFQA をマージしたデータ (FQA+OFQA)の 3 通りのデータセットで fine-tuning をしたモデル, また, (4) 提案手法で用いた因果関係,FQA,OFQA を段階を踏んで fine-tuning をするのではなく, 一気にマルチタスクで学習したモデルの 4 種類を評価した。 表 4 に OFQA のテストデータに対する実験結果を示す. なお, 実験時間が足りなかったため, パイプライン(どうなる型 $\mathrm{QA}$ )は OFQA のテストデータの一部(1,774 件)に対する実験結果である. 提案手法 (テストデータ一部) はそれとの比較のため, 提案手法を同じテストデータで評価したものとなる. また, 提案手法 (-因果関係) は, 提案手法の 1 段回目の fine-tuning 時に因果関係のデータセットを使わなかったモデルである. 表 4 OFQAのテストデータで評価した結果 提案手法の精度はベースラインも含め比較手法のいずれをも上回った. 特に, 提案手法が (4) マルチタスク及び提案手法 (-因果関係) の性能を上回ったことはそれぞれ 2 段階 fine-tuning, 因果関係データセットの有効性を示している。特に, 因果関係という一見 OFQA,ファクトイド $\mathrm{QA}$ とかけ離れたデー タセットがポジティブな影響を持っていることは興味深い. また, パイプライン手法は二つとも提案手法よりも高い精度を達成することはできなかった。 これはこれらのパイプライン手法が根拠表現やセンチメント,さらには因果関係に関係する別のデータで学習した各種モジュールを使っていることを考えると興味深い。つまり, この結果は, OFQA デー タセットだけから BERT が学習した価値判断の方が, 少なくとも我々の設定では, それらの追加の学習データで別途学習した内容よりも高品質であることを意味しており, BERT の end-to-end 学習の強力さを示すものであると考えられる. また, FQAのみで学習したべースライン (1) は精度が極めて低く, OFQA+FQA の組み合わせ (3) がベースラインの中では一番精度が高い。なお, OFQA で高い精度を達成するためには, そのベースとなっている価値判断の判定と, そもそも価值判断を考慮せずに FQA の正解を正しく認識することの両者が必要であると考えることができる.ここで, OFQA のデータセットはあくまで価値判断の判定を適切に学習することに貢献しているのであって, 価值判断を考慮しない FQA の精度向上によって間接的に OFQA タスクの精度向上を果たしているわけではないことを確認するため, 追加で以下の実験を行った。この実験では,(価值判断を考慮しない) FQA のテストデータでベースラインの精度を評価した。(表 5). 表 5 FQAのテストデータで評価した結果 これによると, OFQA だけで学習したべースライ (2) も, FQA と OFQA の両者で学習したベースライン (3)も,FQA だけで学習したベースライン (1) の性能を下回った。これは, OFQA のデータセットは価値判断を考慮しない FQA の性能向上には貢献しないことを示している.このことから,FQAを学習データに追加することで学習されているのは確かに価值判断であることが分かる. ## 5 おわりに 本研究では「価値判断を伴うファクトイド質問」 を新たなタスクとして提案し,データセットを作成の上,そのタスクのための質問応答モデルを開発した. 因果関係認識や FQA といった別タスクの学習データを利用することで性能が向上することを示した.モデルは BERTをいわば end-to-end で学習したものであり, 別途アノテーションした価値判断の根拠やセンチメント分析を利用したパイプライン方式よりも精度が高かった。これはいわば,このタスクにおいてはパイプライン方式を考えた人間の開発者を BERT が上回ってしまったと考えることもできるかもしれない. ## 参考文献 [1] 関直哉, 水野淳太, 門脇一真, 飯田龍, 鳥澤健太郎. ファクトイド質問応答における BERT の pre-trained モデルの影響の分析. 言語処理学会第 26 回年次大会, 2020 [2] Masahiro Tanaka, Stijn De Saeger, Kiyonori Ohtake, Chikara Hashimoto, Makoto Hijiya, Hideaki Fujii, and Kentaro Torisawa. WISDOM2013: A large-scale web information analysis system. In The Companion Volume of the Proceedings of IJCNLP 2013: System Demonstrations, pp. 45-48, Nagoya, Japan, October 2013. Asian Federation of Natural Language Processing. [3] Junta Mizuno, Masahiro Tanaka, Kiyonori Ohtake, JongHoon Oh, Julien Kloetzer, Chikara Hashimoto, and Kentaro Torisawa. WISDOM X, DISAANA and D-SUMM: Large-scale NLP systems for analyzing textual big data. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 263-267, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [4] Julien Kloetzer, Stijn De Saeger, Kentaro Torisawa, Chikara Hashimoto, Jong-Hoon Oh, Motoki Sano, and Kiyonori Ohtake. Two-stage method for large-scale acquisition of contradiction pattern pairs using entailment. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 693-703, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [5] Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou, and HsiaoWuen Hon. Unified language model pre-training for natural language understanding and generation. In 33rd Conference on Neural Information Processing Systems (NeurIPS 2019), December 2019 [6] Kazuma Kadowaki, Ryu Iida, Kentaro Torisawa, JongHoon Oh, and Julien Kloetzer. Event causality recognition exploiting multiple annotators' judgments and background knowledge. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5816-5822, Hong Kong, China, November 2019. Association for Computational Linguistics. [7] Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, István Varga, Jong-Hoon Oh, and Yutaka Kidawara. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 987-997, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [8] Canasai Kruengkrai, Kentaro Torisawa, Chikara Hashimoto, Julien Kloetzer, Jong-Hoon Oh, and Masahiro Tanaka. Improving event causality recognition with multiple background knowledge sources using multi-column convolutional neural networks, 2017. [9] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: $100,000+$ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [10] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 784-789, Melbourne, Australia, July 2018. Association for Computational Linguistics. ## 付録 ## A データ収集 Web から抽出した質問には不要な記号(「れ」,「个」,「*」,「Q1.」等)や質問の内容に大きく影響しない単語列(「ところで」,「そもそも」,「技術における企業の最責任者, C T Oの仕事とは?」の下線部等)が含まれ,そのまま WISDOM X に入力すると十分な数の回答候補が得られない可能性がある. そこで, Web から抽出した質問を対象に,不要な部分を取り除いて簡単な形式に言い換えた質問を生成する。言い換えた質問の生成には NICT が開発した UniLM[5] ベースの質問変換器を用いた. 末尾表現は,WISDOM X のファクトイド質問応答で用いられるバイナリ (ユナリ) パタン [4] が合致した箇所以降の単語列を指す. 表 1 の例では「が,まずいと思います.」が末尾表現となる. 回答候補に対する価值判断の根拠は, この末尾表現に出現しやすいと考えられるため,2 節のデータ収集では,価值判断の根拠が含まれる可能性の低い未尾表現が 4 文字未満の事例は取り除いた. 本研究では, 関らの FQA データセットの訓練事例 174,765 事例から,(1)回答候補がユナリパタン [4] で抽出されている, (2)回答候補が正解である,(3)元文の末尾表現が 4 文字以上存在する,(4)質問一般性が成り立つ,の条件を全て満たす事例を抽出する。(4)について,FQA データセットの質問の一部は WISDOM X によりルールベースで生成されており,文法的,意味的に不自然な質問が含まれる場合があるため, 質問一般性判定によりフィルタリングを行う.(1)から(4)の条件で抽出した結果, 7,887 件の質問, 回答候補, 元文の組が得られた.次に,質問に「といい?」もしくは「とまずい?」を付加して価値判断を伴う質問を作成する.「といい?」「とまずい?」のどちらを付加するかは, 組となる元文の末尾表現のセンチメントで決定し,センチメントがポジティブであれば「といい?」を,ネガティブあれば「とまずい?」を質問に付加する.センチメントの特定には BERT ベースのセンチメント二值分類器を用いた(C を参照). 最後に,価値判断を伴う質問,回答候補,元文を組としアノテーション作業を行なった。 ## B fine-tuning のパラメータ探索 本研究では, 表 6 のパラメータの組み合わせに対し個別に fine-tuning し, 開発データで $\mathrm{F} 1$ スコアが最も高いモデルを選択した. 表 6 fine-tuning のパラメータ探索 ## C センチメント分析 本研究では, センチメント分析を事象を表す文が与えられた際,その事象がポジティブなのかネガティブなのかを分類する二值分類のタスクとする.センチメント分析モデルは, NICT が データセットは NICT がクロールした Web40 億文書から抽出された事象と事象に対する感情表現のペアから作成されたセンチメント分析データセットを用いる(表 7)。上記データセットで学習したモデルをテストデータで評価すると非常に高い精度でセンチメントを分類できていることが分かる(表 8)。 表 7 センチメント分析データセットの統計値 表 8 センチメント分析モデルの性能 ## D 根拠表現抽出 本研究では,(1) 最長一致 (longest) と完全一致 (exact), (2) minor,(3)ofqa-neg の条件を組み合わせて根拠箇所を選択し,根拠表現抽出データセットを作成した。 最長一致は,アノテータが抽出した根拠箇所が一部重なる場合,重複しない部分も含めた最長の単語列を根拠表現とする。例えば,根拠表現として「ビタミン C が豊富に含まれ,美容にも良い」,「美容にも良いし, 風邪予防にもなる.」という単語列が抽出された場合, 「ビタミン $\mathrm{C}$ が豊富に含まれ,美容にも良いし,風邪予防にもなる.」を根拠表現とする。完全一致は, アノテータが抽出した根拠箇所のうち, 重複する単語列 (「美容にも良い」)を選択する.minor は,(1)で根拠箇所が決まらなかった場合に,(1)で最終的に洗濯されなかった根拠表現, アノテータ 3 人のうち 1 人のみが抽出している根拠表現からランダムに 1 つを選択する. ofqa-neg は,回答候補が適切な事例に対し抽出された根拠表現に加え,回答候補が不適切な事例に対し抽出された根拠表現も利用する。 本研究では, 予備実験において最も性能が高かった exact+minor+ofqa-neg の組み合わせを用いる. 表 9 に根拠表現抽出データセットの統計値を示す. 根拠表現抽出に用いるトークン分類モデルの入力は質問・回答候補・元文の 3 つ組とし,「〈質問の単語列〉 $[\mathrm{SEP}]$ 〈回答候補の単語列 〉[SEP] 〈元文の単語列〉」の形式で入力する. 評価指標は SQuAD[9][10] の評価に用いられる Exact Match(EM),F1 スコアを用いる. パイプライン手法で用いた根拠表現抽出器を根拠表現抽出データのテストデータで評価すると, EMで 76.6, F1 スコアで 80.8 の性能が得られた. \\ 開発 & 1,648 & $491(29.8 \%)$ \\ テスト & 5,064 & $1,366(27.0 \%)$
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-21.pdf
# 変分質問回答ペア生成による質問応答モデルの 汎化性能と頑健性の向上 篠田一聡†菅原朔 $\dagger$ 東京大学大学院情報理工学系研究科 $\ddagger$ 国立情報学研究所 shinoda@is.s.u-tokyo.ac.jp \{saku,aizawa\}@nii.ac.jp ## 1 はじめに 文章を読解して質問に答えるシステムを作るために機械読解の研究が盛んに行われている $[1,2,3]$. そのためにはニューラルネットを訓練するための大量の質問回答ペアが必要であるが,その作成には膨大な人手コストを要する。そこでコスト削減のため,自動で質問回答ぺアを生成してデータ拡張を行う研究が注目を集めている $[4,5,6]$. 一方で質問応答モデルが訓練データと違う分布の分布外 (out-of-distribution; OOD) データセットには汎化しないこと [7] や質問応答モデルが頑健ではない困難なテストデータが存在すること $[8,9,10]$ も実用上問題である. データ拡張を適切に行えばモデルの過学習を回避してこれらの問題を解決できる可能性がある $[10,8]$ が,質問回答ペア生成の既存研究ではこのような特性はあまり注目されて来なかった。 本研究では,データ拡張によって訓練データの質問回答ペアの多様性を向上することで,質問応答モデルの汎化性能と頑健性の向上を目指す. 訓練デー タの多様性を向上するために, 多様な質問回答ペアを生成する「変分質問回答ペア生成モデル」を提案する. 評価用データセットには分布内テストデータに加えて,分布外テストデータと困難なテストデー タを用いて汎化性能と頑健性を評価する. 本研究の貢献は以下の 3 点である. ・変分質問回答ペア生成モデルを提案し,既存のモデルに比べて質問回答ペアの多様性を大幅に向上させた. このモデルを用いて合成データセットを作成した. ・作成した合成データセットでデータ拡張を行った結果,分布内テストデータにおいて既存の質問回答ペア生成手法に比肩する結果が得られた。 ・ターゲットの分布がモデルにとって未知である にも関わらず,提案手法は分布外テストデータへの汎化性能と困難なテストデータへの頑健性の向上に寄与することがわかった. ## 2 変分質問回答ペア生成モデル 条件付き変分自己符号化器を拡張することで,多様な質問回答ぺアを単一の文章から生成可能な深層生成モデルを提案する. SQuAD [1] などの人が作成した質問応答データセットでは,一つの文章 $c$ に複数の回答 $a$ が存在し, 文章と回答のぺアに対して複数の質問 $q$ が作成されうることから,回答と質問をそれぞれ異なる潜在空間に埋め込むことが妥当であると考えられる。従って,2つの互いに独立な連続潜在変数 $z$ と $y$ を導入し, 回答と質問を多様化する役割をそれぞれに持たせる.以下の章ではモデルの詳細について説明する。 ## 2.1 目的関数 提案モデルは確率的潜在変数を含むため,対数周辺尤度を直接計算することができない. その代わりにその変分下限を最大化することで訓練ができる. しかし, 変分自己符号化器の変分下限を最大化すると KL 項の值が 0 に収束して復号化器の出力が潜在変数によらず一定になってしまう posterior collapse 問題が起こることが知られている [11]. 提案モデルでもその現象が確認されたため,この問題を回避するために Burgess ら [12] によって提案された KL 項の値を明示的に制御する手法を用いる。よって,提案モデルの目的関数 $\mathscr{L}$ は以下のようになる. $ \begin{aligned} & \mathscr{L}=\mathbb{E}_{q_{\phi}(z, y \mid q, a, c)}\left[\log p_{\theta}(q \mid y, a, c)+\log p_{\theta}(a \mid z, c)\right] \\ & -\left|D_{\mathrm{KL}}\left(q_{\phi}(z \mid a, c)|| p_{\theta}(z \mid c)\right)-C_{a}\right| \\ & -\left|D_{\mathrm{KL}}\left(q_{\phi}(y \mid q, c)|| p_{\theta}(y \mid c)\right)-C_{q}\right| \end{aligned} $ $\theta$ は復号化器の, $\phi$ は符号化器のパラメータであ, $D_{\mathrm{KL}}$ は KL ダイバージェンス, $C_{a}, C_{q} \geq 0$ は KL 項 図 1 提案モデルの全体像. 各構成要素の入力と出力が矢印とともに示されている. の值を制御するためのハイパーパラメータである. ## 2.2 モデル構造 モデルの全体像を図 1 に示す. 以下各構成要素について説明する。 ## 2.2.1 Embedding and Contextual Embedding Layer 文章/質問/回答中の各単語の埋め込みベクトルと文字レベル埋め込みベクトルを結合し,異なる BiLSTM に入力する. 双方向の LSTM の最終時刻の隠れ状態べクトルを連結したものを $h \in \mathbb{R}^{2 d}$, 各時刻の隠れ状態べクトルを連結したものを $H \in \mathbb{R}^{L \times 2 d}$ とする. 図 1 ではこれらがどの入力から得られたものかを示すために右肩に添字を付した. $L$ は系列の長さで $d$ は隠れ状態べクトルの次元数である. ## 2.2.2 Prior and Posterior Distributions 潜在変数の事前確率と事後確率は分散共分散行列は対角行列の多変量正規分布に従うと仮定する. 潜在変数 $z$ と $y$ の事前確率と事後確率の平均と分散の対数は $h^{C}, h^{Q}, h^{A}$ を線形層に入力して得られる. その後に,サンプリングされた $z$ と $y$ はそれぞれ回答抽出モデルと質問生成モデルに入力する. ## 2.2.3 Answer Extraction Model ここでは回答抽出を 2 ステップの自己回帰的な復号とみなして, 回答の確率を $p(a \mid c)=$ $p\left(c_{\text {start }} \mid c\right) p\left(c_{\text {end }} \mid c_{\text {start }}, c\right)$ のようにして求める. 回答抽出モデルには,潜在変数 $z$ を線形層に入力して得られる出力を初期状態の隠れ状態べクトルとするように pointer network を拡張したものを用いる.こ の拡張によって潜在変数 $z$ から回答 $a$ への写像を学習することが可能になる. $H^{C}$ を attention スコアの計算に用いる。 ## 2.2.4 Answer-aware Context Encoder 回答の位置を考慮した文章についての情報を得るために,さらに BiLSTM を用いる. $H^{C}$ に回答の始点と終点の one-hot ゙クトルを連結したものを BiLSTM に入力し,各時刻の双方向の隠れ状態べクトルを連結して $H^{C A} \in \mathbb{R}^{L \times 2 d}$ を出力として得る. ## 2.2.5 Question Generation Model 潜在変数 $y$ と $H^{C A}$ を元に質問を生成する. 質問生成モデルには LSTM 復号化器と注意機構,コピー 機構 [13] を用いて質問中の単語を先頭から順に予測する.ここでも $y$ を線形層に入力して得られる出力を復号化器の初期状態の隠れ状態べクトルとする拡張を行う。 $H^{C A}$ は注意機構とコピー機構で用いる。 ## 3 実験・結果 ## 3.1 データセット データセットには Wikipedia の文章からクラウドワーカーが作成した約 10 万の質問回答ペアからなる SQuAD v1.1 [1]を用いる. SQuAD はテストデー タが公開されていないため,質問生成の先行研究でよく用いられる SQuAD-Du [14]を用いる. デー タのサイズは訓練データが 70,484 ,検証データが 10,570 ,テストデータが 11,877 である. ## 3.2 回答抽出 提案モデルが抽出した回答と SQuAD-Du の回答の一致度に加えて,抽出された回答の多様性を検証するために,提案モデルで各文章から 50 の回答をランダムに抽出した. $C_{a}$ は様々な値を検証したが,紙幅の関係で限られた値の結果のみ報告する。 評価指標回答同士の一致度の評価には Proportional Overlap (Prop.) と Exact Match (Exact) を用いた [5]. それぞれの指標について Precision と Recall を計算して多対多の評価に用いる。多様性の評価には抽出された回答から重複を省いた後の総数を Dist スコアとして定義して用いた。 ベースライン固有表現抽出 (NER) と, BiLSTM$\mathrm{CRF}$ で回答抽出を学習している HarestingQG (HarQG) [5] をべースラインに用いた. 表 1 テストデータにおける回答抽出の結果. 表 2 テストデータにおける質問生成の結果. 結果表 1 に結果を示す. $C_{a}$ を適切な値に設定することで,先述の posterior collapse 問題を回避して多様性を向上しつつより高い再現度を達成した. SQuAD-Duよりも多様性が向上しているため, Precision の低さは必ずしも抽出された回答の質が低いことを意味しないと考える。 ## 3.3 質問生成 参照質問の再現度と生成された質問の多様性を評価するために,文章と回答を入力としてランダムに 50 の質問を生成させた. 評価指標再現度の評価には BLEU-1 (B1) / Meteor (ME) / ROUGE-L (RL) の Recall (-R), 多様性の評価には Dist-1 (D1) / Ent-4 (E4) / Self-BLEU-4 (SB4)を用いた. ベースライン SemanticQG (SemQG) [6] をベースラインとして用いる. 提案手法と公平な比較をするために, Diverse Beam search で復号を行い,スコアの高い 50 の質問文を各入力について生成した. 結果表 2 に結果を示す. 提案モデルは既存手法に比べて多様な質問を生成できている。 また,提案手法の B1/ME/RL の Recall が SemQG のビーム幅 10 の時のスコア 48.59/24.86/46.66 と同等であることから,各入力につき少なくとも 1 つはべースラインに匹敵するスコアの質問を提案モデルが生成できていることが分かる. $C_{q}$ が 0 の時に SB4 が 100 に近い ということは各入力に対してほとんど同じ質問ばかり生成しており, posterior collapse 問題が起きているが, $C_{q}$ を適切な值に設定することでそれを回避できている。 ## 3.4 合成データセットの構築 以上の結果から,複数の設定で構築したモデルで生成すればより多様なデータが得られると考えられる。 そこで $\left(C_{a}, C_{q}\right)=(5,5),(5,20),(20,20)$ の 3 つの設定でモデルを構築し, 訓練データ中の各文章からそれぞれランダムに 50 の質問回答ペアを生成した. 得られた合成データセットをそれぞれ $D_{5,5}$, $\mathscr{D}_{5,20}, \mathscr{D}_{20,20}$ とおく. 人手評価(付録 B)によるとこれらは質の低いデータを含むため,回答が長すぎるもの,質問が短すぎるか長すぎるもの,疑問詞を含まないものを省き,質問文中の n-gram の繰り返しを削除した.以下では基本的にこれら 3 つのデー タセットを混合したものをデータ拡張に用いる. ## 3.5 質問応答 質問回答ペア生成の既存研究に従って BERT-base [15] を質問応答モデルとして使う。 ハイパーパラメータは元論文に準拠する。データ拡張を行う際は合成データセットで 1 エポック学習した後にオリジナルの訓練データで 2 エポック学習する. $83.2,3.3$ と同様 HarQG と SemQG をべースラインに用いる. ## 3.5.1 半教師あり質問応答 質問回答ペア生成によるデータ拡張(半教師あり質問応答)の評価を行う. 表 4 に半教師あり質問応答の結果を示す. 提案手法は SemQG に匹敵する精度向上を達成した. BERT-base よりパラメータ数の多い BERT-large についても同様の実験を行ったが, いずれの手法でも精度向上は見られなかった. 提案した各合成データセットが精度にどれくらい寄与しているかについて分析するために検証データでアブレーションを行った. その結果,3つのうちどの合成データセットを除いても EM / F1 スコアが 0.3 / 0.1 0.3 ポイント減少した. 詳しい結果は付録 Aに載せる. よっていずれの合成データセットも精度向上に寄与していることが分かる。 ## 3.5 .2 分布外データセットへの汎化 既存研究において質問応答モデルは分布外データセットに対してうまく汎化できないことがわかって 表 3 質問応答モデルの汎化性能と頑健性の評価 表 4 半教師あり学習 いる $[7,16]$. ここでは提案手法が分布外データセットへの汎化性能を向上するかを評価する.評価用データセットには NewsQA [2], TriviaQA [3], Natural Questions (NQ) [17]を用いる。NQについては Sen ら [16] に倣って長い回答から短い回答を抽出するタスクに再定式化した。参考としてそれぞれのテストデータと同じ分布の訓練データ(Target)で質問応答モデルを訓練した時の精度も報告する. 表 3 の左に結果を示す. 提案手法は TriviaQA では最も高い精度を達成し,NQでは SemQG に匹敵する精度となった. NewsQA ではほとんど向上は見られなかった. Wikipedia 以外のニュース記事等の文章を活用することが必要だと考えられる. ## 3.5.3 困難なテストデータへの頑健性 3 種類の困難なテストデータを用いて質問応答モデルの頑健性を評価する. - 質問のパラフレーズ [8]: SQuAD の質問のパラフレーズ(non-Adv)と本来の回答と似ている回答の近くの単語を使って敵対的に作成したパラフレーズ(Adv)の2つのテストデータ ・難しい質問 [9]: SQuAD の検証データを単純なヒューリスティクスで分割して得られる簡単な質問(Easy)と難しい質問(Hard)のサブセット ・一貫性を要する質問 [10]: SQuAD の質問回答ぺアを含意する質問回答ペアからなるテストセッ ## 卜 (Implications) 結果表 3 の右に結果を示す. non-Adv, Adv, Hard, Implications のすべての困難なテストデータにおいて提案手法がもっとも頑健性の向上に寄与することがわかった. また表 4 で SemQG と提案手法は同等の精度であったが,表 3 によると SemQG は Easy のみで精度を向上させている一方で,提案手法は Easy と Hard 双方で精度を向上させる効果があることが分かる. SemQG はより SQuAD に近い質問を生成することを目的としている [6] ことから,合成データセットの質の向上よりも多様性の向上の方がより頑健性の向上に寄与する可能性が示唆される. ## 4 おわりに 本研究では多様な質問回答ペアを生成可能なモデルを提案し,合成データセットを構築した. これを用いた半教師あり学習において既存手法と匹敵する精度を達成した。そして提案手法は分布外データセットへの汎化性能だけでなく困難なテストデータへの頑健性の向上に寄与することがわかった. 質問応答のための質問回答ペア生成の研究 $[5,6,18,19,20]$ の中ではこのような結果を報告している研究は本研究が初であり,質問回答ペアの多様性の向上がもたらす効果について新しい知見が得られた。さらに提案したデータ拡張手法は多様性の向上のみを目的としており,既存手法 $[10,8]$ とは異なりターゲット分布を意識したデータ拡張手法ではないことも注目すべきである.実応用においてモデルが答えることが困難な質問を訓練時に事前に知っておくことは困難なため,訓練時にターゲット分布が未知なままそれらへの汎化性能を向上させることは重要である.BERT-large のようなパラメータ数の多いモデルへのデータ拡張手法の考案は今後の課題としたい. ## 参考文献 [1]Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 23832392. Association for Computational Linguistics, 2016. [2]Adam Trischler, Tong Wang, Xingdi Yuan, Justin Harris, Alessandro Sordoni, Philip Bachman, and Kaheer Suleman. Newsqa: A machine comprehension dataset. In Proceedings of the 2nd Workshop on Representation Learning for NLP, pages 191-200. Association for Computational Linguistics, 2017. [3]Mandar Joshi, Eunsol Choi, Daniel S. Weld, and Luke Zettlemoyer. Triviaqa: A large scale distantly supervised challenge dataset for reading comprehension. CoRR, abs/1705.03551, 2017. [4]Zhilin Yang, Junjie Hu, Ruslan Salakhutdinov, and William Cohen. Semi-supervised qa with generative domain-adaptive nets. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1040-1050. Association for Computational Linguistics, 2017. [5]Xinya Du and Claire Cardie. Harvesting paragraph-level question-answer pairs from wikipedia. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1907-1917. Association for Computational Linguistics, 2018. [6]Shiyue Zhang and Mohit Bansal. Addressing semantic drift in question generation for semi-supervised question answering. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pages 2495-2509, Hong Kong, China, November 2019. Association for Computational Linguistics. [7]Alon Talmor and Jonathan Berant. MultiQA: An empirical investigation of generalization and transfer in reading comprehension. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 49114921, Florence, Italy, July 2019. Association for Computational Linguistics. [8]Wee Chung Gan and Hwee Tou Ng. Improving the robustness of question answering systems to question paraphrasing. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, July 2019. [9]Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 4208-4219, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [10]Marco Tulio Ribeiro, Carlos Guestrin, and Sameer Singh. Are red roses red? evaluating consistency of question-answering models. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 6174-6184, Florence, Italy, July 2019. Association for Computational Linguistics. [11]Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pages 10-21, Berlin, Germany, August 2016. Association for Computational Linguistics. [12]Christopher P. Burgess, Irina Higgins, Arka Pal, Loic Matthey, Nick Watters, Guillaume Desjardins, and Alexander Lerchner. Understanding disentangling in $\beta$-VAE. arXiv e-prints, page arXiv:1804.03599, Apr 2018. [13]Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1073-1083. Association for Computational Linguistics, 2017. [14]Xinya Du, Junru Shao, and Claire Cardie. Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1342-1352. Association for Computational Linguistics, 2017. [15]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [16]Priyanka Sen and Amir Saffari. What do models learn from question answering datasets? In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 2429-2438, Online, November 2020. Association for Computational Linguistics. [17]Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Matthew Kelcey, Jacob Devlin, Kenton Lee, Kristina N. Toutanova, Llion Jones, Ming-Wei Chang, Andrew Dai, Jakob Uszkoreit, Quoc Le, and Slav Petrov. Natural questions: a benchmark for question answering research. Transactions of the Association of Computational Linguistics, 2019. [18]Chris Alberti, Daniel Andor, Emily Pitler, Jacob Devlin, and Michael Collins. Synthetic QA Corpora Generation with Roundtrip Consistency. arXiv e-prints, page arXiv:1906.05416, Jun 2019 [19]Bang Liu, Haojie Wei, Di Niu, Haolan Chen, and Yancheng He. Asking questions the human way: Scalable questionanswer generation from text corpus. In Proceedings of The Web Conference 2020, WWW' 20, page 2032-2043, New York, NY, USA, 2020. Association for Computing Machinery. [20]Dong Bok Lee, Seanie Lee, Woo Tae Jeong, Donghwan Kim, and Sung Ju Hwang. Generating diverse and consistent QA pairs from contexts with information-maximizing hierarchical conditional VAEs. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 208-224, Online, July 2020. Association for Computational Linguistics. ## A アブレーション 表 5 にアブレーション結果を示す. 表 5 検証データでのアブレーション ## B 人手評価 表 6 に人手評価の結果を示す. ベースラインに SemQG を用いた. Amazon Mechanical Turk (AMT) を用いて SQuAD は 100 ,その他は 200 ずつ質問回答ペアを評価した. 項目は質問が文法的におかしくなくて意味がわかるかどうか,質問が文章と関連しているかどうか,回答が質問に対する回答として正しいかどうか [19], 回答が文章のメイントピックに関連しているかどうかの 4 つである. 表 6 質問回答ペアの人手評価
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-2.pdf
# ゼロ代名詞デー夕拡張による日英機械翻訳の改善 李凌寒中澤敏明鶴岡 慶雅 東京大学大学院情報理工学系研究科 \{li0123, nakazawa, tsuruoka\}@logos.t.u-tokyo.ac.jp ## 1 はじめに ニューラル機械翻訳は単文単位の翻訳において高い性能を発揮する一方で、談話単位での文脈が関わる言語現象を扱う点において未だ課題が残っている。その課題の一つが日英翻訳におけるゼロ代名詞の翻訳である。日本語では文脈から聞き手が推定可能な主語や目的語を省略することができるが、これを英語に翻訳する際は省略された項を推定した上で適切に翻訳しなければならない。例えば、以下の例文では日本語で省略された主語が一人称であることを推定して、英語では $I$ を出力しなければならない。 うなぎが食べたいな。 I feel like eating eel. ゼロ代名詞の推定には、本質的には談話内におけるトピック、旧情報、世界知識などを参照して可能になるが、一方でゼロ代名詞を含む文内の言語学的な情報が手がかりとなる場合もある [1]。例えば、上記の文では “たいな”という願望を表す機能語列が、主語が一人称であることを示唆している。 この局所的文脈情報とゼロ代名詞の対応を学習することは、既存の単文単位でのニューラル機械翻訳でも解決できるはずの問題であるが、低リソースの状況下ではその対応を十分に学習できない可能性がある。特に、ゼロ代名詞を多く含む傾向にある会話ドメインの翻訳は、現状パラレルコーパスが豊富だと言い難い状況にある。 従って、本研究では局所的文脈情報とゼロ代名詞、特に人称代名詞の翻訳の対応の学習を促進する手法として、ゼロ代名詞データ拡張を提案する(図 1)。本手法では、訓練データを対象に翻訳元言語に現れる人称代名詞を削除し、人工的にゼロ代名詞を含むような翻訳対を作り出す。これにより局所的文脈情報とゼロ代名詞の対応を学習できるような訓練データを増やすねらいがある。 図 1 ゼロ代名詞データ拡張。 本論文では、まず局所的文脈情報からある程度ゼ口代名詞を予測できることを示した上で、実際にゼ口代名詞データ拡張によって機械翻訳モデルのゼロ代名詞予測の精度が上がることを示す。 ## 2 関連研究 ## 2.1 文脈つきニューラル機械翻訳 単文単位の翻訳品質が向上するのに従って、その範囲で扱えないような文脈を考慮した翻訳をするモデルの研究が近年盛んに行われている。最もシンプルなアプローチとして、モデルの構造は変えず、入力や出力を複数文に拡張した 2to1, 2to2 モデルが提案されており、文脈情報を捉えた翻訳の品質を向上させることが示されている [2]。 ## 2.2 ゼロ代名詞 日本語を始めとする一部の言語では述語の項が省略されることがあり、省略された項をゼロ代名詞 (zero pronoun) と呼ぶ。この省略された項を同定するタスクはゼロ照応解析と呼ばれ以前から研究されているが [3]、本研究では特に翻訳におけるゼロ代名詞の問題について考える。 翻訳の際に問題となるのが、ゼロ代名詞が翻訳先の言語では統語的に必須な要素である場合である。 この場合、翻訳の際に省略されたゼロ代名詞を補つて翻訳する必要があり、これには翻訳元の文章に加えて、その前の文章などの広い文脈情報が必要となる。 一方で、文内に存在する局所的文脈情報が、決定的でないにしろ、手がかりになる場合もある $[1,4]$ 。例えば、日本語では敬語表現(「申し上げる」)や依頼表現(「〜してくれますか?」)などがゼロ代名詞の推測に有用である。 本研究は、広い文脈情報を明示的にモデル化したり、ゼロ照応解析を明示的に行うことをせず、局所的文脈情報から推測できるゼロ代名詞の翻訳を向上させることを主なねらいとする。同様の問題意識に基づく研究として、Wang らによる対訳データのゼ口代名詞を補ったデータを作成して訓練に使うものがある [5, 6]。しかし、Wang らの手法では、対訳データからゼロ代名詞を補うときに英文と中国語文の単語アラインメントが対角線上に並ぶことが多いというヒューリスティクスを用いているが、この手法は語順が大きく異なる日英翻訳に適用することが難しい。そこで本研究では、ゼロ代名詞を補ったデータを活用するのではなく、元々代名詞を含む文からその代名詞を削除したデータを活用する、ゼロ代名詞データ拡張を提案する。 ## 2.3 デー夕拡張 データ拡張 (data augmentation) は画像分野で盛んに行われており [7]、訓練データに対してタスクにおける意味を損なわない範囲での処理を施すことでデータ量を増やす手法のことである。自然言語処理の分野においては、入力文中の単語を同義語に置換したり [8]、折り返し翻訳により同じ意味を持つ文を生成することで [9]、データ拡張する手法が提案されている。 本研究では、日英翻訳において、翻訳元の日本語の代名詞を削除することで、翻訳元の文の意味を保存したままゼロ代名詞を含む文を獲得する。 ## 3 ゼロ代名詞と局所的文脈情報の 分析 本研究は和文内の局所的文脈情報が、英文へと翻訳する際のゼロ代名詞の推定に有用であるという仮定に基づいている。そこで本節では、実際に局所的文脈情報からどの程度ゼロ代名詞を推定できるのか、またどのような局所的文脈情報が有用であるの 図 2 分析データ中の英語代名詞について、翻訳が和文に現れるものと (Non-ZP) 現れないもの (ZP) の数。 かを分析する。 分析データとして日英ビジネスシーン対話コーパス [10] から公開されている対訳データに加えて、研究グループ内で使用できるものを合わせて 104,961 文対を用いた。 ## 3.1 ゼロ代名詞を含む対訳を同定する 和文におけるゼロ代名詞の同定には日本語の構文解析器を用いる方法が考えられるが、今回は翻訳に関わるゼロ代名詞を分析するため対訳コーパスからのアラインメントを活用した方法を採用する。具体的な手順は以下の通りである。 1. 分析用の対訳データから GIZA++1)を用いて単語アラインメントを学習する。単語分割には、和文に $\mathrm{Mecab}^{2)}$ 、英文に $\mathrm{spaCy}^{3}$ )を用いた。 2. 英文中の代名詞が和文の NULL に対応づけられているとき、その英文での代名詞が和文ではゼロ代名詞として実現されているとみなす。 この結果、得られた代名詞の数を図 2 に示す。会話ドメインにおいては、一人称代名詞 $I$ や二人称代名詞 you が頻出かつ、日本語では省略されやすいことがわかる。また、基本的に英文では高頻度の代名詞ほど、日本語ではゼロ代名詞になることが示されている。 ## 3.2 ゼロ代名詞と共起している局所的文脈情報を抽出する 検出された和文のゼロ代名詞を特徴付けるために、その述語部に現れる単語を抽出する。今回は日本語の構文解析器を用いておらず、ゼロ代名詞は英  文の代名詞とアラインメントで結び付けられているため、英文の係り受け構造をアラインメントを通じて和文に投影することで述語部を抽出する。前項までの処理に引き続き、以下の手順で行った。 3. ゼロ代名詞に対応している英代名詞の係り受け先の単語を抽出する。 4. その単語にアラインメントで対応づけられている和文中の単語と後続の機能語列4)を局所的文脈情報として抽出する。 ## 3.3 局所的文脈情報からゼロ代名詞を予測 する この局所的文脈情報から、ゼロ代名詞がどの程度推定可能かを調べるために、ロジスティック回帰を用いた分析を行った。局所的文脈情報として抽出した単語列からのユニグラム、バイグラム、トライグラムを入力素性とし、英文における代名詞を予測する。 5 分割交差検証による各代名詞の再現率を表 1 に示す。ベースラインとして、訓練データに含まれる代名詞の分布に従ってランダムに予測した場合の値を採用している。 頻度の高い I, you, we は、局所的文脈情報を用いた場合ベースラインに比べて有意に高い精度で予測できることが分かる。しかし一方で、頻度の低いその他の代名詞はベースラインと比べても同等か低い数值を記録している。これら頻度の低い代名詞は、局所的文脈情報からだけでは予測することが困難であることが示唆される。 具体的にどのような局所的文脈情報が予測に有用なのかを調べるために、ロジスティック回帰の各出力ラベルに対して、入力素性に対応する重みの値が高いものを抽出し、解釈可能なもの調べた。 その結果、一人称単数 $I$ の予測には、認識に関わる動詞(思う、わかる、感じる)、謙譲語(申し上げる、存じる)、間投助詞(なあ、よ)、願望を表す助動詞 (たい)、二人称単数 you については、質問を表すフレーズ(かな?、ました?)、推測(でしょ、だろ?)、尊敬語(仰る、いただける)、一人称複数 we には義務(なきゃ、べき)、願望(たい)が有用であると分かった。その他の代名詞については、代名詞予測に有用であると解釈可能なものは認められなかった。 4)ここでは機能語を Mecab で定義されている品詞の ["助詞", "助動詞", "記号"] とした。 ## 4 実験 前章の分析により、局所的文脈情報がゼロ代名詞の予測に有用であることが確認できた。ここでは、翻訳元である和文中の省略可能な代名詞を助詞とともに削除することでゼロ代名詞を含むデータを人工的に作り出す、ゼロ代名詞データ拡張が有用であるかどうかを検証する。こうして作られたデータはゼ口代名詞と局所的文脈情報の結びつきを学習するために有用な訓練信号を与えると考えられる。 人工データの使用法として、訓練データにそのまま加える、もしくはゼロ代名詞補完をマルチタスクで学習させる手法 [6] が考えられる。本論文では、訓練データに加える方法を検討する。 ## 4.1 実験設定 ## ゼロ代名詞データ拡張 本研究におけるゼロ代名詞データ拡張では、翻訳元である日本語の文中の省略可能な代名詞を助詞とともに削除することで、ゼロ代名詞を含むデータを人工的に作り出す。代名詞の検出には、人手でパターンを作成し該当する文字列を検索することで行った。パターンの具体的な作成方法は付録を参照されたい。 ## コーパス 今回の実験は日英会話コーパス [11]を公開されているものに加え、プロジェクト内で使用可能分を加えたものを用いた。データの統計を表 2 に示す。 ## モデル 翻訳モデルは Transformer [12]を用いた。モデルサイズは Vaswani らの base モデルを 4 層に減らしたもの、最適化器には Adam を用いた。今回は、通常の単文単位の翻訳の他に、入力に前文を付加した 2to1 の設定 [13] についても実験を行った。 ## 評価方法 日英会話コーパスにおける BLEU [14] と日英翻訳ゼロ代名詞評価データセットを用いて評価した [15]。ゼロ代名詞評価データセットは、入力文、正しい代名詞を含む出力文、誤った代名詞を含む出力文のデータからなる。モデルの評価には、モデルに入力文と出力文を入力し、正しい出力文に対する 表 1 代名詞毎のゼロ代名詞予測の再現率。 表 2 日英会話コーパスの文数 パープレキシティが低い、つまり正しい出力文の方を予測する確率が高い場合に正答したとみなして精度を算出した。 ## モデル選択 ニューラルネットワークに基づくモデルはハイパーパラメータやランダムシードの選択に大きく結果が左右されることが知られている。今回は、各設定において一定の計算資源を投入した際の一番良いモデルを用いて性能を比較した [16]。具体的には、 ハイパーパラメータとして学習率、ドロップアウト 10 回の試行の内、開発データにおける BLEU スコアが一番高いものについて、テストデータの BLEU とゼロ代名詞評価の精度を算出した。より詳細な設定については付録を参照されたい。 ## 4.2 実験結果 実験結果を図 3 に示す。 表 3 ベースラインとゼロ代名詞データ拡張を行ったモデルの評価。表中の值はそれぞれ BLEU / ゼロ代名詞評価の精度。 1to1 と 2to1 どちらの設定においても、ゼロ代名詞データ拡張によって、BLEU スコアの改善は観察されないが、ゼロ代名詞評価の精度は有意に向上している。1to1 と前文を考慮したモデルである 2to1を比較すると、baseline の設定においては、前文を加えることでゼロ代名詞翻訳の性能は $80.5 \%$ から $84.4 \%$ に向上している。一方で、baseline+pro_aug の設定では $91.1 \%$ から $85.2 \%$ と、前文の文脈を考慮しない  方が性能が高い。これは、入力として前文を加える 2to1 の設定では、入力文が長くなるために、その文ゼロ代名詞と局所的文脈情報の関連をモデルが学習しづらくなっているのではないかと推測する。 ## 5 おわりに 日英の会話翻訳におけるゼロ代名詞翻訳の問題について、和文中のゼロ代名詞を同じ文内に存在する局所的文脈情報からある程度予測できることを示し、この局所的文脈情報とゼロ代名詞の結びつきを翻訳モデルに学習させるための手法としてゼロ代名詞データ拡張を提案した。ニューラル機械翻訳モデルを訓練した実験の結果、ゼロ代名詞データ拡張はゼロ代名詞翻訳の精度を有意に向上させることが示された。 一方で、ゼロ代名詞データ拡張はゼロ代名詞を含む文の外に、ゼロ代名詞翻訳に必要な情報が存在する場合を本質的に解決するものではない。また、分析の結果、局所的文脈情報は一人称、二人称ゼロ代名詞の推測には有用であるが、三人称代名詞の推測には有用ではないことが示唆されており、本手法による改善は限られていると考えられる。これらの課題は、会話中のトピックや登場人物などを捉えることのできるモデルが必要であると考える。 ## 謝辞 本研究成果は独立行政法人情報通信研究機構 (NICT) の委託研究「多言語音声翻訳高度化のためのディープラーニング技術の研究開発」により得られたものです。 ## 参考文献 [1] 工藤拓, 市川宙, 賀沢秀人. Language independent null subject prediction for statistical machine translation.言語処理学会第 21 回年次大会発表論文集, 2015. [2] Elena Voita, Rico Sennrich, and Ivan Titov. When a good translation is wrong in context: Context-aware machine translation improves on deixis, ellipsis, and lexical cohesion. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, Florence, Italy, July 2019. [3] Kenji Imamura, Kuniko Saito, and Tomoko Izumi. Dis- criminative approach to predicate-argument structure analysis with zero-anaphora resolution. In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, Suntec, Singapore, August 2009. [4] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Japanese zero reference resolution considering exophora and author/reader mentions. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, Seattle, Washington, USA, October 2013. [5] Longyue Wang, Zhaopeng Tu, Xiaojun Zhang, Hang Li, Andy Way, and Qun Liu. A novel approach to dropped pronoun translation. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, San Diego, California, June 2016. [6] Longyue Wang, Zhaopeng Tu, Xing Wang, and Shuming Shi. One model to learn both: Zero pronoun prediction and translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Hong Kong, China, November 2019. [7] Patrice Simard, Yann LeCun, John S. Denker, and Bernard Victorri. Transformation invariance in pattern recognition-tangent distance and tangent propagation. In Neural Networks: Tricks of the Trade, This Book is an Outgrowth of a 1996 NIPS Workshop, Berlin, Heidelberg, 1998. Springer-Verlag. [8] Sosuke Kobayashi. Contextual augmentation: Data augmentation by words with paradigmatic relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), New Orleans, Louisiana, June 2018. [9] Adams Wei Yu, David Dohan, Minh-Thang Luong, Rui Zhao, Kai Chen, Mohammad Norouzi, and Quoc V. Le. Qanet: Combining local convolution with global self-attention for reading comprehension. CoRR, Vol. abs/1804.09541, , 2018. [10] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation, Hong Kong, China, November 2019. [11] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Document-aligned japanese-english conversation parallel corpus. In Proceedings of the Fifth Conference on Machine Translation, Online, November 2020. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [13] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, Copenhagen, Denmark, September 2017. [14] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, Philadelphia, Pennsylvania, USA, July 2002. [15] Sho Shimazu, Sho Takase, Toshiaki Nakazawa, and Naoaki Okazaki. Evaluation dataset for zero pronoun in Japanese to English translation. In Proceedings of the 12th Language Resources and Evaluation Conference, Marseille, France, May 2020. European Language Resources Association [16] Jesse Dodge, Suchin Gururangan, Dallas Card, Roy Schwartz, and Noah A. Smith. Show your work: Improved reporting of experimental results. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Hong Kong, China, November 2019. ## 付録 ## ゼロ代名詞削除に用いた代名詞+助詞リスト ゼロ代名詞削除は、代名詞リスト(表 4)と助詞のリスト(表 5)からの全組み合わせを列挙し、そのパターンに該当する文字列を文中から削除することで行った。 以下の代名詞は、コーパスの文を Mecab を用いて品詞解析したときに代名詞にあたる単語から、人手で人称代名詞を抽出したものである。 表 4 ゼロ代名詞削除に用いた代名詞のリスト 助詞については、人称代名詞に続く助詞の中から頻出かつ削除しても文意が伝わると思われるものを人手で選定した。 表 5 ゼロ代名詞削除に用いた助詞のリスト ## 機械翻訳実験のハイパーパラメータ 機械翻訳実験におけるハイパーパラメータの值は表 6 に示す範囲で Optuna を用いて探索した。 表 6 ハイパーパラメータ探索の範囲
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-3.pdf
# 相対的意味論に基づく統計機械翻訳における翻訳確率 中村勇太 鳥取大学工学部 m19j4033b@edu.tottori-u.ac.jp } 村上仁一 鳥取大学工学部 murakami@tottori-u.ac.jp ## 1 はじめに 機械翻訳において様々な手法が提案されている。しかし,それらの手法で得られる出力が異なる場合が多い。 そこで,異なる機械翻訳手法によって得られた複数の出力 (候補文) から, 最尤の出力を選択する手法である “相対的意味論に基づく統計機械翻訳 (RSMT)”が提案されている.この手法を用いることで,各手法の出力から最尤の出力を得られる. RSMT では出力を選択するために,学習文対の日本語側 $(A)$, 学習文対の英語側 $(B)$, 入力文 $(C)$, 候補文 $(D)$ について類似度及び翻訳確率を計算する.類似度は同一言語の文章 $(A$ と $C$ または, $B$ と $D)$ がどれだけ類似しているかを示す。翻訳確率は $C$ が $D$ に翻訳される確率を示す。なお,類似度及び翻訳確率には様々な計算方法が存在する。 本稿の目的は, RSMT で用いる翻訳確率の計算方法として最適な方法を調査することである. 5 つ翻訳確率の計算方法を用いてRSMT を動作させ結果を比較する。この実験によって,最適な翻訳確率の計算方法を調査する。 ## 2 Neural Machine Translation(NMT) 本論では,候補文を得るために “Neural Machine Translation(NMT)”を用いる. 本章で NMT の概要を述べる。 ## 2.1 NMT の概要 NMT とはニューラルネットワークを用いて機械翻訳を行う手法である. 2 言語コーパス等を用いて Attention モデルと呼ばれる異言語間の単語の対応を学習し, それを元に入力文の翻訳を行う. ## 2.2 NMT の学習における乱数の影響 今回の実験では,NMT の一種である Open-NMT を用いる. Open-NMT は,学習で乱数を用いている. よって同一のコーパスで学習を行なっても,翻訳結果が異なるモデルが生成される。本論では Open-NMT のモデルを複数生成し, 同一の入力文を翻訳することで,RSMT の候補文を獲得する。 ## 2.3 Open-NMT $の N$-best 出力 Open-NMT は第 $n$ 候補まで, 複数の出力文を出力できる. また,一般的に第 1 候補が最も優れている. しかし,第 2 候補以降に優れた出力が存在することも考えられる.本論では RSMT を用いることで,第 1 候補より優れた出力文が選択可能か調查する。 ## 3 相対的意味論に基づく統計機械翻訳 (RSMT) $)_{\text {[6] }$} “相対的意味論に基づく統計機械翻訳”では異なる機械翻訳手法によって得られた複数の出力 (候補文) から,最尤の出力を選択する.そのために,学習文対の日本語側 $(A)$, 学習文対の英語側 $(B)$, 入力文 $(C)$, 候補文 $(D)$ について類似度及び翻訳確率を計算する。出力を選択する手順を示す。 ## 3.1 選択の手順 手順 1 学習文対の日本語文と入力文の類似度を計算学習文対の日本語文と入力文の類似度を計算する。計算された値を $\operatorname{sim}_{A C}$ とする. $\operatorname{sim}_{A C}$ の計算式を式 (1) に示す. $ \operatorname{sim}_{A C}=\frac{\operatorname{count}(\text { Match })}{\operatorname{count}\left(A_{\text {all }}\right)} \times \frac{\operatorname{count}(\text { Match })}{\operatorname{count}\left(C_{\text {all }}\right)} $ count(Match) : 学習文対の日本語文と入力文において共通している単語の総数 $\operatorname{count}\left(A_{\text {all }}\right)$ : 学習文対の日本語文の単語の総数 $\operatorname{count}\left(C_{\text {all }}\right)$ : 入力文の単語の総数 手順 2 学習文対の英語文と各候補文の類似度を計算学習文対の英語文と各候補文の類似度を計算する。計 算された值を $\operatorname{sim}_{B D}$ とする. $\operatorname{sim}_{B D}$ の計算式を式 (2) に示す. $ \operatorname{sim}_{B D}=\frac{\operatorname{count}(\text { Match })}{\operatorname{count}\left(B_{\text {all }}\right)} \times \frac{\operatorname{count}(\text { Match })}{\operatorname{count}\left(D_{\text {all }}\right)} $ $\operatorname{count}($ Match) : 学習文対の英語文と候補文において共通している単語の総数 $\operatorname{count}\left(B_{\text {all }}\right)$ : 学習文対の英語文の単語の総数 $\operatorname{count}\left(D_{\text {all }}\right)$ : 候補文の単語の総数 手順 3 入力文と候補文に類似した学習文対を抜粋入力文と各候補文に類似した学習文対を一定数抜粋する. 抜粋された学習文対の集まりを $D B$ とする。 各候補文について式 (3) の数値が高い順に抜粋する。 $ \operatorname{sim}_{A C} \times \operatorname{sim}_{B D} $ 手順 $4 D B$ 内の学習文対の翻訳確率を計算 $D B$ 内の学習文対の翻訳確率を計算する. 計算された値を $\operatorname{trans}_{A B}$ とする ここで用いる式は第 4 章で説明する。 手順 5 入力文から各候補文への翻訳確率を計算 入力文から各候補文への翻訳確率を計算する。計算さ れた値を trans $_{C D}$ とする. ここで用いる式は手順 4 と同様である. 手順 6 出力文の決定 計算された值を用いて出力文を決定する. 式 (4) の值が最も高い候補文を, 出力文とする. RSMT の流れ図を図 1 に示す. 図 1 RSMT の流れ図 ## 4 翻訳確率の計算方法 実験で用いる翻訳確率の計算方法を説明する。なお実際の計算では,2 つの単語の連なりを 1 つの単語と見なす. ## 4.1 自己相互情報量 (PMI)[2] 自己相互情報量とは,2つの事象の間の関連度合いを測る尺度である. 日英単語の共起をこの尺度に当てはめることで翻訳確率として用いる。計算式を式 (5) に示す. $ \sum_{j=1}^{M} \log _{2} \sum_{i=1}^{N} \frac{\operatorname{count}\left(J_{j}, E_{i}\right)}{\operatorname{count}\left(J_{j}\right) \operatorname{count}\left(E_{i}\right)} $ $\operatorname{count}($ ) : 学習文対中での登場回数 $J_{j}$ : 入力文中 $j$ 番目の単語 $E_{i}$ : 候補文中 $i$ 番目の単語 $M$ : 入力文の単語数 $N:$ 候補文の単語数 ## 4.2 Joint Probability(Joint) ${ _{[5]}$} Joint Probability とは,交差エントロピーを拡張した翻訳確率の計算方法である。計算式を式 (6) に示す. $ \begin{aligned} & \sum_{j=1}^{M} \sum_{i=1}^{N} \frac{\operatorname{count}\left(J_{j}, E_{i}\right)}{\operatorname{count}\left(J_{\text {all }}\right) \operatorname{count}\left(E_{\text {all }}\right)} \\ & \times \log _{2} \frac{\operatorname{count}\left(J_{j}, E_{i}\right)}{\operatorname{count}\left(J_{j}\right) \operatorname{count}\left(E_{i}\right)} \end{aligned} $ $\operatorname{count}\left(J_{\text {all }}\right)$ : 全学習文対における日本語単語の総数 $\operatorname{count}\left(E_{\text {all }}\right)$ : 全学習文対における英語単語の総数 ## 4.3 Jaccard 係数 (Jaccard) [3] Jaccard 係数とは 2 つの集合がどれだけ類似しているかを表す係数である。入力文と候補文を「文を構成する単語の集合」とみなすことで,Jaccard 係数を翻訳確率として用いる。計算式を式 (7) に示す. $ \sum_{j=1}^{M} \log _{2} \sum_{i=1}^{N} \frac{\operatorname{count}\left(J_{j}, E_{i}\right)}{\operatorname{count}\left(J_{j}\right)+\operatorname{count}\left(E_{i}\right)-\operatorname{count}\left(J_{j}, E_{i}\right)} $ ## 4.4 Dice 係数 (Dice) [4] Dice 係数とは Jaccard 係数と同じく,2 つの集合がどれだけ類似しているかを表す係数である。計算式を式 (8) に示す. $ \sum_{j=1}^{M} \log _{2} \sum_{i=1}^{N} \frac{2 \operatorname{count}\left(J_{j}, E_{i}\right)}{\operatorname{count}\left(J_{j}\right)+\operatorname{count}\left(E_{i}\right)} $ ## 4.5 Simpson 係数 (Simpson) ${ _{[1]}$} Simpson 係数とは Jaccard 係数と同じく, 2 つの集合がどれだけ類似しているかを表す係数である. Simpson 係数 は,「片方の集合がもう片方の集合の真部分集合である時,類似度が最大になる」という特徴がある.計算式を式 (9) に示す. $ \sum_{j=1}^{M} \log _{2} \sum_{i=1}^{N} \frac{\operatorname{count}\left(J_{j}, E_{i}\right)}{\min \left(\operatorname{count}\left(J_{j}\right), \operatorname{count}\left(E_{i}\right)\right)} $ ## 5 Open-NMT の第 1 候補を用いる 実験 ## 5.1 実験目的と方法 本章では, Open-NMT の第 1 候補を, RSNT の候補文として実験を行う. 5 つの翻訳確率計算方法で RSMT を動作させ,翻訳精度を調査する.翻訳精度の調査は自動評価及び人手評価で行う. ## 5.2 実験に使用するデータ 本研究では, 実験に電子辞書などの例文より抽出した単文コーパス [7] を使用する。 RSMT の候補文は Open-NMT の第 1 候補を用いる. また,使用する Open-NMT のモデル数は 32 個である. よって候補文は,入力文 1 文につき 32 文存在する. 使用するデータの内訳を表 1 に示す. 表 1 実験データの内訳 ## 5.3 実験結果 ## 5.3.1 自動評価の結果 自動評価の結果を表 2 に示す。 表 2 自動評価の調査結果 (1000 文) 表 2 によると,多くの評価指標において PMI が最も優れた結果を示す. ## 5.3.2 人手評価の結果 100 文を対象に,人手評価を行った結果を表 3 に示す. また,人手評価の評価基準を示す. ○: 入力文の意味と合致かつ文法の誤りがない $\triangle$ : 入力文の意味と部分的に合致 x : 入力文の意味と合致していない 表 3 人手評価結果 $(100$ 文 表 3 によると, Joint が他の手法と比較して性能が劣る. また,Joint 以外の手法間に大きな差はない。表 4 から表 6 に人手評価の例を示す. 表 4 人手評価の例 1 表 5 人手評価の例 2 \\ 表 6 人手評価の例 3 ## 6 Open-NMT の第 8 候補までを用い る実験 ## 6.1 実験目的と方法 ここでは, Open-NMT の第 8 候補までを RSMT の候補文として用いて実験を行う.候補文となる基準を引き下げることで, Open-NMT のモデルを複数生成するよりも容易に,多くの候補文を得ることができる。ここでは, 5 章の実験との比較のために,候補文の数を揃える。 ## 6.2 実験に使用するデータ 実験に使用するデータは表 1 と同様である. 使用する Open-NMT のモデル数は 4 つである. よって候補文は,入力文 1 文につき 32 文存在する. ## 6.3 実験結果 ## 6.3.1 自動評価の結果 自動評価の結果を表 7 に示す。 表 7 自動評価の調査結果 (1000 文) 表 7 によると, PMI と Dice が優れた結果を示す. ## 6.3.2 人手評価の結果 100 文を対象に,人手評価を行った結果を表 8 に示す. 表 8 人手評価結果 $(100$ 表 3 と表 8 を比較すると, PMI, Jaccard, Dice 以外の手法は○が減少している. 特に, Joint の減少数は顕著であ る.一方で,PMI, Jaccard は $\bigcirc$ が増加している。また, の数は PMI が最多である。このことから,PMI を用いることで,第 1 候補以外の優れた出力文を選択できることが分かる. 表 9 から表 11 に人手評価の例を示す. 表 10 人手評価の例 2 表 11 人手評価の例 3 \\ ## 7 実験のまとめ 本章では第 5 章と第 6 章の結果から判明した事項を述べる. 最後に総評として, 本論で述べた 5 つの翻訳確率の計算方法から,RSMT で用いる最適な方法を決定する。 ## 7.15 章のまとめ 5 章の実験では, 翻訳確率の各計算方法の性能を比較するための実験を行った. その結果, Joint は他 4 つの計算方法より性能が若干劣ることが分かった。また,Joint 以外の計算方法間に性能差はほぼなかった。 ## 7.26 章のまとめ 6 章の実験では, 候補文に用いる Open-NMT の出力の順位を引き下げることで,第 1 候補以外の優れた候補文を選択できるか調査した。その結果, PMI 以外の計算方法は一様に性能が低下した。しかし, PMI は他 4 つと異なり性能が向上した。 ## 7.3 総評 総評すると, 5 章の実験で Joint 以外の計算方法にはほぼ差がなく, 6 章の実験で PMI が第 1 候補以外の優れた候補文を選択できることが判明した。よって,RSMT で用いる翻訳確率の計算方法は, PMI が最も適している. ## 8 考察 ## 8.1 Ōpen-NMT の第 1 候補と RSMT の性能比較 RSMT の性能を評価するために Open-NMT の第 1 候補と性能を比較した。また,人手評価の結果から RSMT が誤った出力をする原因を考察した。実験に使用するデー タは第 6 章と同様とする.比較のために用いる RSMT の結果は, 人手評価で最も○が多かった第 6 章の PMI の結果とする. ## 8.1.1 比較結果 Open-NMT の 1best と RSMT の,自動評価と人手評価の結果をそれぞれ表 12 と表 13 に示す. 表 12 自動評価結果 (1000 文) 表 12 自動評価結果 $(1000$ 文) 表 13 人手評価結果 (100 文) 表 12 によると, RSMT の方が BLEU 以外の指標において優れた結果を示した. また, 人手評価も RSMT の方が優れた結果を示した。人手評価の例を表 14 から表 16 に示す.また,RSMT が誤った候補文を選んだ原因を考察する. 表 14 人手評価の例 1 表 16 人手評価の例 3 表 14 では, 前置詞の使い分けがRSMT によって改善された。しかし, 表 15 では, RSMT は所有格が誤っている.これは日本語と英語の所有格の明記の差異が原因で,誤っている候補文の類似度が正しい候補文より高くなっている. 表 16 では入力文及び RSMT の出力文が,学習文対「6月 30 日号付け財務諸表の写しをお送り申し上げます。」“It is a pleasure to send you the enclosed copy of our June 30 Financial Statements ." との類似度が高かったことが原因で出力された. RSMT はこの例のように,ある学習文対と極度に類似した候補文を選択する場合が多い。また計算方法の都合,学習文対及び候補文の単語数が多いほど, 翻訳確率が高くなるため, 単語数が多い候補文が選択されやすい。これらが誤りの原因となる可能性がある. ## 8.1.2 単語数の多さが原因である誤りの解決法 この節では,8.1.1の例における誤りの原因を解決する方法を提案する。 解決方法の 1 つは, 文の単語数によって正規化を行うことである. 正規化を行うことで,単語数が多いほど選択されやすい問題を解決できる ## 8.2 過剰生成を含む候補文 NMT の出力文の特徵の1つとして「過剰生成」がある. これは表 17 に示すように,同じ単語が複数回, 出力に現れることを指す. 過剩生成は NMT の出力数を増やすほど, 現れる傾向がある. 多くの場合, RSMT は過剩生成を含む候補文を選択しないことが望ましい。 表 17 過剰生成を含む出力の例 しかし 6 章の実験において,過剩生成を含む候補文が選択される入力文が増加した。また,それが人手評価で ×とする理由になった数を表 18 に示す. 表 18 過剩生成が理由で人手評価×とした数 それぞれの手法で過剩生成が精度低下の原因となった入力が存在する。その中でも, Joint と Simpson は過剩生成が精度低下の原因として多かったことを表 18 が示している. ## 8.3 類似度の計算方法 本論では, 翻訳確率の計算方法の調査を行った。しかし7.1 節で示したように, RSMT の誤りの理由の 1 つとして類似度の計算方法が挙げられる。また, RSMT において類似度の計算方法も翻訳確率と同様に,様々な方法が考えられる. 今後の研究では, 類似度の計算方法についても調査が必要である. ## 8.4 出力文の決定に用いる計算式 本論では, 出力文の決定の時に式 (4)を用いた。しかし, この時に用いる式によって結果が変化する. 今回用いたパラメータは 4 種類あるので,それぞれのパラメー 久の使用または不使用の組み合わせだけでも 16 通りの計算式が考えられる. また, 7.1 節の問題を解决するならば,翻訳確率に重みを付与することも考えられる。 今後の研究では,式 (4)を用いた時以上の性能を得られる式を調査する。 ## 9 おわりに 相対的意味論に基づく統計機械翻訳 (RSMT) に最適な翻訳確率の計算方法の調査を目的として,5つの計算方法を用いた翻訳結果を比較した。実験により,自己相互情報量 (PMI) が他の計算方法とほぼ同等の性能であると分かった. さらに PMI は, Open-NMT の第 1 候補以外の優れた候補文を選択できることが分かった。 よって, 今回述べた計算方法の中では, PMI が RSMT で用いるのに最も適している. ## 参考文献 [1] Bollegala, D., Matsuo, Y., Ishizuka, M. A web search engine-based approach to measure semantic similarity between words. IEEE Trans. on Knowl. and Data Eng., Vol. 23, No. 7, pp. 977-990, 2011. [2] Church, K. , Hanks, P. Word association norms, mutual information, and lexicography. Computational Linguistics, Vol. 16, No. 1, pp. 22-29, 1990. [3] Salton, G. , McGill, M. Introduction to modern information retrieval. 自然言語処理学会第 25 回年次大会, 1983. [4] Smadja, F. , , McKeown, K. R. ,, Hatzivassiloglou, V. Translating collocations for bilingual lexicons: a statistical approach. Comput. Linguist. , Vol. 22, No. 1, pp. 1-38, 1996. [5] 松本大輝, 村上仁一. 翻訳における分野依存性を軽減する言語モデルの調査. 自然言語処理学会第 25 回年次大会, 2019. [6] 村上仁一. 相対的意味論と機械翻訳の応用. 自然言語処理学会第 27 回年次大会, 2021. [7] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ, 2012.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-4.pdf
# システム訳文のみを用いた自動評価との比較による 機械翻訳自動評価の分析 高橋 洸丞 ${ }^{1}$ 須藤 克仁 ${ }^{1,2}$ 中村哲 1 1 奈良先端科学技術大学院大学 2 科学技術振興機構さきがけ \{takahashi.kosuke.th0, sudoh, s-nakamura $\}$ is.naist.jp ## 1 はじめに 機械翻訳システムの翻訳能力は年々向上しており,それに伴い自動評価への需要も高まっている. そして,近年の自動評価の研究も単語やサブワードの意味の近さを評価基準とすることで, WMT metrics task $[1,2,3]$ にて評価性能の向上が報告されている.現在主流となっているのは大規模な事前学習モデルである BERT [4] により参照訳文とシステム訳文を符号化したべクトルを用いて評価値を算出するものである [5,6]. また我々は入力文を追加で利用し人手評価との相関をさらに改善できることを示した [7]. 我々の研究 [7] を通じて,これらの手法は品質の低いシステム訳文では品質の高いものよりも人手評価との相関が低くなることが明らかになっている.ここで主に用いられる自動評価実験用のコーパスに着目してみると, WMT metrics task $[1,2,3]$ で提供される人手評価は, DA (Direct Assessment) [8] と呼ばれる 0~100 の評価値を標準化した実数値を取る. DA スコアは対応する参照訳文に対してシステム訳文の意味的な正確性, また流暢性を共に考慮して一文ずつスコアが与えられている。ここで翻訳誤りには否定関係が逆になっていたり, 副詞や形容詞の係り受けによる意味の違いなど多種の誤りがあり, 実用的な運用の際には重大な誤解を生むリスクのある誤訳に低い評価值を付けるべきである.しかしながら,DA スコアは 1 次元の実数値のみでスコアリングされているため, 文中にどのような翻訳誤りが含まれるのかを直接判別することはできない. このような背景を踏まえて, 須藤 [9] は, システム訳文の解釈性と正確性をそれぞれレベル分けするように人手評価データを新たに構築した.しかし, BERT regressor [5] のモデルを利用した分類評価実験では, 実務翻訳の立場上許されてはいけないクラスとその他のクラスでの誤分類が見られ, 依然として低品質なシステム訳文の評価が難しいことが示唆される。 須藤 [9] はコーパス面から, 意味の違いに敏感な評価手法へのアプローチをしたが,そもそも現在主流の評価モデルはどれほど参照訳文とシステム訳文の意味の違いを識別できるのだろうか. 翻訳の評価は大きく分けると, 意味の正確性と流暢性という二つの基準で行われるはずである. 自動評価ではシステム訳文と参照訳文を利用して両者を評価している.本研究では, 参照訳文を用いずシステム訳文のみを入力とする自動評価,すなわち流暢性は評価できても意味の正確性は評価し得ない方法との比較を通じて,どれだけ意味の正確性を評価できているのかを検証する。 ## 2 評価モデル 評価モデルは, 全て事前学習済みの大規模言語モデルと一層の全結合層から構成される (図 1). システム訳文のみを入力とするモデルは図 1(a) に示す通りで, システム訳文 (翻訳文:hyp)を “[CLS] hyp [SEP]”という形式で入力し, 最終層の [CLS]トークンに相当するベクトルを文ベクトルとみなして, 最終的に全結合層で回帰問題として評価值を計算する. BERT regressor や BLEURT は, 図 1(b) の構造を取り, 翻訳文と参照訳文を [SEP] トークンで区切り, “[CLS] hyp [SEP] ref [SEP]”という形で二文をまとめて入力する。 また我々が提案したモデル [7] は図 1(c)のように, 翻訳文と参照訳文の入力だけでなく, 翻訳文と原言語文をまとめた入力を追加している。これら三つのモデルを以降それぞれ "hyp only", "hyp+ref", “hyp+src/hyp+ref" と記述する。 どのモデルも平均二乗誤差 (Mean Squared Error: MSE) を損失関数とし, 誤差逆伝播法により最後の全結合層と符号器の両方のパラメータを更新する. (a) システム訳文のみ (hyp only) (b) システム訳文+参照訳文 (hyp+ref) (c) システム訳文+原言語文はステム訳文+参照訳文 (hyp+src/hyp+ref) 図 1 入力別のモデル図 ## 3 実験 本研究では, システム訳文のみを入力とした意味的な正しさを考慮しない評価モデルにより,どの程度 DA スコアを予測し, 人手評価との相関が得られるのかを,参照訳文や原言語文を用いた評価手法と比較して検証した。 ## 3.1 実験設定 評価実験は WMT17 metrics taskコーパスの all-en で行った. 含まれる言語対は, チェコ語 (cs)-英語 (en), ドイツ語 (de)-英語 (en), フィンランド語 (fi)-英語 (en), ラトビア語 (lv)-英語 (en), ルーマニア語 (ro)英語 (en), ロシア語 (ru)-英語 (En), トルコ語 (tr)-英語 (en), 中国語 (zh)-英語 (en) の 8 言語対である. その中でもWMT15, 16 に相当し重複を除いた 5344 文の内, 534 文を開発用, 残りの 4810 文を訓練用とした.評価テストは WMT17 に相当する 3920 文に対して行った. 使用した事前学習済み符号化モデルは RoBERTa [10], 合成データで事前学習した BLEURT [6], XLM-RoBERTa [11] である. 実装は全て HuggingFace Transformers ${ }^{1)}$ で行い, RoBERTa は roberta-large, XLMRoBERTa は xlm-roberta-large を使用した. BLEURT のモデルは BLEURT-large-warmedup を pytorch 用に変換した後に HuggingFace Transformers 9 BERT 用のクラスで読み込み使用した. RoBERTa と BLEURT モデルは英語のコーパスのみで事前学習されたモノリンガルモデルなので, hyp+src/hyp+ref にはマルチリンガルモデルである XLM-RoBERTa で実験を行った. また参考実験として, システム訳文と原言  語文 (hyp+src)を入力としたモデルでの評価実験も XLM-RoBERTa で行った. そして評価性能の比較対象として, 文レベルでスコアを計算した BLEU (sacre BLEU [12]) と BERTscore [13] でも評価実験を行った.学習時の最適化は Adam [14] で, ミニバッチ学習を最大 10 エポック行った. 各エポック毎に訓練デー タと開発データはシャッフルし, 開発データのロス値が下がらない場合に学習率を $\frac{1}{\sqrt{2}}$ 倍した. その他のハイパーパラメータは以下の組み合わせの中で, 開発データにおいて人手評価とのピアソンの相関係数值が最も高くなるモデルを評価テストに使用した. またそれぞれの試行毎の初期化によって結果が変動するので, 試行回数もハイパーパラメータとみなしている. ・初期学習率 : $\{9 \mathrm{e}-6,6 \mathrm{e}-6,3 \mathrm{e}-6\}$ ・ミニバッチサイズ : $\{4,8\}$ - 学習エポック数 : $\{1, \ldots, 10\}$ - 最終結合層のドロップアウト率: $\{0.1,0.2,0.3\}$ - 試行回数 : $\{1, \ldots, 10\}$ 本研究の評価実験では, モデルの評価値と人手評価とのピアソンの積率相関係数とケンドールの順位相関係数で評価性能を測る. どちらの相関係数値も $-1.0 \sim 1.0$ の值を取り, 1.0 に近い程モデルの評価性能が高いことを示す. ## 3.2 実験結果 表 1,2 に各モデルの評価値と人手評価とのピアソンの相関係数,ケンドールの相関係数を示す. どの hyp only のモデルも hyp+ref には及ばないが, ピアソンの相関係数が 0.6 を上回り,ケンドールの相関係数が 0.45 前後であった. また全ての hyp only が 図 2 DA スコアの区間ごとのピアソンの相関係数の関係 (各区間表記の下の数値は区間内のサンプル数を示す) 図 3 RoBERTa hyp only による評価予測值と DA スコアの散布図 BLEU を超えておりこのコーパスにおいては BLEU などの字句ベースの評価指標より,システム訳文の流暢性にのみ焦点を当てた評価の方が高い相関を示した. また, 表 3 に hyp+ref の hyp only と比較した際の相関係数の上昇率を示す. hyp+ref は hyp only と比較すると,どの事前学習モデルにおいても, ピアソンの相関係数で約 1.25 倍, ケンドールの相関係数が約 1.3 倍となり, 現在主流な評価モデルは流暢性だけでなく意味の評価がある程度可能だとわかる。 ## 3.3 分析および考察 我々の先行研究 [7] で, hyp+ref の評価モデルは品質の低い翻訳文に対して評価性能が下がることがわかっているが, hyp only ではどうなるのだろうか. DA スコアを 0.5 ずつの一定区間に分けてピアソンの相関係数値を見ることで分析を行った (図 2). その結果, hyp only は $[-2.0,-1.5),[1.0,1.5)$ の二区間で hyp+ref より評価性能が下がっていることが分かる. それぞれの区域での RoBERTa hyp only の評価予測値とDA スコアの関係を散布図として, 図 3 に示す.この図から, hyp only では低品質な翻訳文で評価値を DA スコアよりも高く予測しているものが多く見受けられ, 高品質なものでは評価予測値が低く出てしまっていることがわかる. 流暢性のみに着目すると,流暢だが意味的な誤りを含む文や, 流暢かつ意味も正しい文を上手く評価できないことが示唆される. したがって,システム訳文が参照訳文にほぼ等しい時や重大な誤訳を含むとき, 流暢性ではなく意味の正確性を考慮した評価が必要であると考えられる。 現状の hyp+ref 評価モデルでは, 高品質なシステム訳に対して意味の等価性を識別できているが, 中品質, とりわけ低品質な翻訳文において参照訳文との意味の違いを正しく識別できていないと考察できる. 一方で hyp+src/hyp+ref 評価モデルは, 低品質なシステム訳文に対して hyp+ref や hyp only より良い評価性能を記録した。 ケンドールの相関係数値についても同様の結果であったため付録への記載に留める (図 4). ## 4 おわりに 本研究では, システム訳文のみを入力とした流暢性だけを評価するモデルと, 現在主流の正解文を用いる評価モデルを比較することで, 現在主流のモデルの評価能力を分析した. 分析結果から, 現在主流の hyp+ref モデルは意味の評価がある程度可能ではあるが, 低品質な翻訳文の評価に適さないことがわかった. hyp+src/hyp+ref についても, hyp+ref よりは低品質な翻訳文に対しても評価性能が高いが, 決して十分な評価能力ではないため, より意味の違いに敏感な手法が求められる. また, BLEUを自動評価指標として使用するよりも, システム訳文のみを利用した手法が人手評価と高い相関を示したことから,特定のデータセットにおける人手評価との相関の高さが意味の正しさの評価における優位性を必ずしも示さないことが明らかになった. ## 5 謝辞 本研究は JST さきがけ (JPMJPR1856) の支援を受けたものである. 表 1 各モデルの WMT17 metrics taskコーパス (all-en)におけるピアソンの相関係数値 表 2 各モデルの WMT17 metrics taskコーパス (all-en)におけるケンドールの相関係数値 表 3 hyp only と比較したときの hyp+ref の相関係数值の上昇率 (\%) ## 参考文献 [1]Ondřej Bojar, Yvette Graham, and Amir Kamran. Results of the WMT17 metrics shared task. In Proceedings of the Second Conference on Machine Translation, pp. 489-513, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [2]Qingsong Ma, Ondřej Bojar, and Yvette Graham. Results of the WMT18 Metrics Shared Task: Both characters and embeddings achieve good performance. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 671-688, Belgium, Brussels, October 2018. Association for Computational Linguistics. [3]Qingsong Ma, Johnny Wei, Ondřej Bojar, and Yvette Graham. Results of the WMT19 metrics shared task: Segmentlevel and strong MT systems pose big challenges. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 62-90, Florence, Italy, August 2019. Association for Computational Linguistics. [4]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5]嶋中宏希, 梶原智之, 小町守. 事前学習された文の分散表現を用いた機械翻訳の自動評価. 第 26 巻, pp. 613-634, 92019. [6]Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [7]Kosuke Takahashi, Katsuhito Sudoh, and Satoshi Nakamura. Automatic machine translation evaluation using source language inputs and cross-lingual language model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3553-3558, Online, July 2020. Association for Computational Linguistics. [8]Yvette Graham, Timothy Baldwin, and Nitika Mathur. Accurate Evaluation of Segment-level Machine Translation Metrics. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1183-1191, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [9]須藤克仁, 高橋洸丞, 中村哲. 深刻な誤訳の識別に向けた分類型翻訳評価データセットの構築. 言語処理学会第 27 回年次大会, 2021. [10]Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [11]Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [12]Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [13]Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [14]Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In the Third International Conference on Learning Representations, 2015. 図 4 DAスコアの区間ごとのケンドールの相関係数の関係(各区間表記の下の数値は区間内のサンプル数を示す)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-5.pdf
# 深刻な誤訳の識別に向けた分類型翻訳評価データセットの構築 須藤克仁 ${ }^{1,2}$ 高橋洸丞 ${ }^{1}$ 中村哲 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 科学技術振興機構さきがけ \{sudoh, takahashi.kosuke.th0, s-nakamura\}@is.naist.jp ## 1 はじめに ニューラル機械翻訳 (NMT) 技術の進展によって,機械翻訳の平均的な訳質は従前と比較して大きく向上した. NMT の訳は流暢性に優れることが特徴であるが,その一方で重要語句の訳抜けや誤訳が問題視されている.これはかつての統計的機械翻訳 (SMT) による「見るからに機械翻訳」という読みづらくぎこちない文ではなく,一見して問題がないような文が機械翻訳の結果として得られるようになったが故に, 翻訳の評価において内容の過不足や文意の正確性により注意を払わねばならないことの現れともいえる。 機械翻訳評価の事実上の標準である BLEU[1] は n-gram 精度と簡潔ペナルティによって訳語の表層的な正確性とカバレージを粗く見積もる指標であり,訳文の文意の正確性の評価にはほど遠い。他方,分散表現を用いることで表層一致によらない翻訳評価の手法として BERT Regressor [2], BERTScore [3], MoverScore [4], BLEURT [5] 等が提案され, 人手評価と高い相関があることが示されている. 現在の翻訳人手評価の主流は直接評価 (Direct Assessment; DA) [6] と呼ばれる標準化された単一の人手評価値である. DA の予測を回帰として解くアプローチは上記 BERT Regressor や BLEURT でも用いられており, 人手評価を自動評価で再現するという観点では理にかなった方法である. しかしながら, DA は 1 次元の評価指標であって,様々な誤訳を含む翻訳結果を評価するには不十分である. 例えば,「私は 1 万円支払った」という参照訳に対して,(1)「私は 1 万円支払わなかった」,(2)「支払い円 1 万した」,(3)「彼は財布を拾った」はいずれも誤訳であることは確かだが,DA の枠組みでどう異なる評価値を付するかの判断は容易でない。また,(1) は一見して多くの訳語は正しいものの文意としては大きく異なり,実用上深刻な誤訳といえる.こうした誤訳の識別は自動評価にとっては難しい課題である. 本研究では,「訳文の文意が読み取れるか」「訳文の文意が参照訳と比較し誤解を招かないか」の二点に着目した分類型の翻訳評価を目指す.複数の視点による翻訳評価はかつて広く利用されていた 5 段階の流暢さ (Fluency) と忠実さ (Adequacy) に基づく人手評価 [7] や,NTCIR PatentMT の人手評価 [8] で採用された 5 段階の忠実さと受容度 (Acceptability), 多数の観点を用いた評価指標である多次元評価 (Multidimentional Quality Metrics; MQM) [9] 等がある. 忠実さは文意の伝達量に基づいており, 誤訳の影響を測るような定義となっていない,受容度は忠実さの評価が 5 であった訳文についてのみ文法的な正しさや流暢さを分類するものであり,深刻な誤訳を識別するには適さない. 多数の観点は評価の詳細化のために有益であるが,人手評価が煩雑になりやすい.また,本研究と独立に,Popović は同様の方針により解釈性 (Comprehensibility) と忠実さ (Adequacy) に影響を与える語句を Major と Minor の二段階で分類する人手評価アノテーションを実施している $[10,11]$. 語句単位での評価アノテーションは誤り要因の同定に繋がり有益であるものの,忠実さの面で語句単位の誤りが文意に与える影響は明示的に考慮されていない. 本研究では語句単位ではなく文単位での人手評価・自動評価を目的とし, 文意解釈性, 文意正確性 ${ }^{1)}$ に基づく文単位での分類型翻訳評価を提案する。提案する評価方法では,まず文意が読み取れるかを文意解釈性として評価し,その読み取った文意が正しいかどうかを参照文との比較によって文意正確性として評価する。 本稿では,上記の観点に基づく評価基準とそれに基づく翻訳評価データセットの構築について述べ,このデータセットを用いた自動評価実験の結果を示す. ## 2 分類型翻訳評価基準 提案する評価基準は流暢さ・忠実さと類似するが, それらがすべて段階的な設計となっていたのに対し,文意正確性については誤訳の分類のために段階的でない分類型の設計を行った.以下,詳細を述べる。 1)過去の 5 段階評価に基づく「忠実さ」との混同を避けるため本稿では異なる用語を用いる. \\ \\ ## 2.1 文意解釈性 表 1 に文意解釈性の評価基準を示す.従来の流暢さの基準 [7] では最低の 1 が理解不能 (Incomprehensible) である他は流暢性のみが着目され,ARPA における機械翻訳評価 [12] で検討された解釈性の観点は考慮されていなかった. 本研究では流暢性と解釈性を一つの基準で表現するため,(1) 表記や文法,言語表現の問題が訳文の解釈を不可能にしている場合 (F),(2) 解釈が不可能ではないが容易とは言い難い場合 (D), (3) 解釈が容易である場合 (B, A, および $\mathrm{S})$ の大きく 3 つに分け,(3) については流暢性や文法適格性の影響の違いで 3 段階,の 5 段階の基準とした. ## 2.2 文意正確性 表 2 に文意正確性の評価基準を示す. 従来の忠実さの基準 [7] は意味内容がどの程度伝達されたか,という量的な尺度であったのに対して, 本研究では誤訳の深刻さによる伝達内容の誤解リスクを評価基準の中心とし,(1)そもそも内容が解釈できない場合 (N),(2)誤訳により誤解を招き得る場合 $(\mathrm{O}, \mathrm{C}$, および $\mathrm{F})$ ,(3)表 3 人手評価におけるアノテータ間一致度 (Kappa 係数 ( $\kappa$ およびラベル一致率 $(r))$ 誤解の心配がない,もしくは軽微な場合 ( $\mathrm{B}, \mathrm{A}$, および S) の大きく3つに分け,(2) については誤訳のタイプの違いで 3 種類, (3) については誤解を招く程度の違いで 3 段階, の計 7 種類の基準とした. ## 3 評価データセットの構築と分析 文意解釈性と文意正確性に基づき作成した機械翻訳の人手評価データセットについて詳細を述べる. ## 3.1 人手評価 本評価データセットは,WMT 2015 から WMT 2017 までの評価尺度 (Metrics) タスクのデータ(訳文・参照訳合計 9,280 文対,いずれも英語)を利用し,文意解积性と文意正確性のアノテーションを人手で付したものである. アノテーションは英語への翻訳業務の経験を持つ 3 名のアノテータが独立に, 英語の訳文と参照訳のみを見る形で行った. Popović は原文との比較評価を行ったが,参照訳の品質に影響を受けない一方で両言語に堪能な評価者を要し言語拡張性に劣る点が問題といえる。 ## 3.2 評価データセットの分析 構築した評価データセットをアノテータ一致度と DA スコアとの関係の二点で分析した. ## 3.2.1 アノテータ間一致度 表 3 にアノテータ間一致度を Kappa 係数 ( $\kappa$ ) とラべル一致率 $(r)$ で示す。一致度は十分高いとは言い難いが,過去の WMT 人手評価データ $[13,14]$ と同等程度である. A-B や B-C で文意解釈性の一致度は文意正確性よりも低くなっているが,これはアノテータ B が $\mathrm{A}$ やより文意解釈性の評価が厳しかったこと(詳細は付録の表 10-11参照)によるものと考えられる. ## 3.2.2 文意解釈性・文意正確性と DA スコアの関係 人手評価のラベルと DA スコアとの関係を各ラベルに対応する翻訳結果の DA スコアの平均と標準偏差で 表 4 評価ラベルに対する平均 DA スコア(文意解釈性) 表 5 評価ラベルに対する平均 DA スコア(文意正確性) 表したものを表 4, 5 に示す. 各ラベルに対応するDA スコア範囲はアノテータ間で若干異なるものの,おおまかな順序はほぼ同じになっていることが分かる.特に順序尺度に近い設計となっている文意解釈性の各ラベルと文意正確性の $\mathrm{B}, \mathrm{A}, \mathrm{S}$ については DA スコアでもその優劣と一致する結果が得られている。 また,順序尺度となっていない文意正確性の $\mathrm{N}, \mathrm{O}$, $\mathrm{C}, \mathrm{F}$ の各ラベルについては, 無関係な内容を表す O が最もDA スコアが低く, その次に理解不能な訳文を表す Nが低くなっており, C や F は誤解を招くリスクが高い深刻な誤訳でありながら DA スコアが O やNより平均的には高くなっている. DA スコアという一次元の尺度でこうした異なる種類の誤訳を識別することには限界があり,読めない誤訳,読めるが全く無関係な内容の誤訳,内容は一見類似しているが誤解を招くような誤訳,文意の伝達にはあまり影響を与えないような誤訳,を識別するためには,本研究のような複数の評価観点と分類型の評価の導入が重要である. ## 4 自動評価実験 本研究で提案する分類型機械翻訳評価を自動化できるかを検証するため,評価データセットをもとに以下の自動評価実験を行った. ## 4.1 データ 評価データセットのうち WMT 2017 のデータに相当する 3,920 文対 (7 言語から英語への翻訳データが言語対ごとに 560 文対)をテストセットとして利用表 6 自動評価実験での評価ラベル統計(文意解釈性) 表 7 自動評価実験での評価ラベル統計(文意正確性) し, 残りのデータからランダムに選んだ 536 文対を開発セット,その残りの 4,824 文対を学習セットとして利用した. 評価データセットには 3 名の異なるアノテータによるラベルが付されているため,本実験では以下のヒューリスティクスに基づいて単一のラベルを選択して利用した。 ・2名以上の付与したラベルが一致していればそれを用いる ・ラベルの一致がなければ,最も悪い評価ラベルを利用する. ラベルの順序は文意解釈性では $\mathrm{F}<\mathrm{C}$ $<\mathrm{B}<\mathrm{A}<\mathrm{S}$, 文意正確性では $\mathrm{C}<\mathrm{F}<\mathrm{N}<\mathrm{O}<\mathrm{B}$ $<\mathrm{A}<\mathrm{S}$ とする. 表 6,7 に学習・開発・テストセットにおける評価ラべルの統計を示す. ## 4.2 実験設定 本研究の自動評価は機械翻訳結果と参照訳を入力とし評価ラベルを予測する分類問題として定式化される. 本実験では予測モデルは文意解釈性と文意正確性で独立に学習した。 予測モデルの実装には HuggingFace Transformers ${ }^{2}$ と学習済みの RoBERTa モデル (roberta-large) [15] を利用し,RoBERTaの [CLS]トークンに対する最終層のベクトルを入力とする全結合層 1 層を用いた分類モデルを構築し,交差エントロピーを損失関数として学習を行った. ここで,表 6,7 でも明らかなようにラ  表 8 文意解釈性予測の混同行列. 全体の正解率は 0.578 . 表 9 文意正確性予測の混同行列. 全体の正解率は 0.600 . ベル数には大きく偏りがあるため, 学習セット中のラベル数に反比例する重み $c$ を損失関数に付加した. $ w_{c}=\sqrt{\frac{\max _{c^{\prime} \in \mathscr{C}} \operatorname{count}_{c^{\prime}}}{\operatorname{count}_{c}}} $ ここで $\mathscr{C}$ はラベルの集合を, count $_{c}$ はラベル $c$ の学習データ中の出現回数を表す。 学習時には Adam [16] 利用し, 初期学習率 1e-5 で 30 エポックのミニバッチ学習を行った. ミニバッチサイズは $(4,8,16)$, 追加全結合層のドロップアウト率は $(0.1,0.3,0.5,0.75)$ を比較し,開発セットにおける分類精度が最も高くなるものを選択し,文意解釈性予測モデルはミニバッチサイズ 4 , ドロップアウト率 0.75 , 文意正確性予測モデルはミニバッチサイズ 8 , ドロップアウト率 0.5 を使用した. ## 4.3 結果 表 8,9 に文意解釈性, 文意正確性に対する予測の混同行列をそれぞれ示す. 文意解釈性の予測では,テストセットに対する分類精度は 0.578 であり, 学習セット, 開発セットに対する分類精度はそれぞれ $0.999,0.647$ であった. 表 8 から分かるように,誤分類の多くは隣接するクラスに対するもので,離れたクラス $(\mathrm{F} \rightarrow\{\mathrm{A}, \mathrm{S}\}, \mathrm{D} \rightarrow \mathrm{S}, \mathrm{A} \rightarrow$ $\mathrm{F}$, および $\mathrm{S} \rightarrow\{\mathrm{F}, \mathrm{D}\})$ へ誤分類率は $0.43 \%$ と低い水準であった. 付録の表 12 には文意解釈性予測の適合率・再現率・F 值を示している。 文意正確性の予測では,テストセットに対する分類精度は 0.600 であり, 学習セット,開発セットに対す る分類精度はそれぞれ $0.998,0.632$ であった. 出現回数の少なかったラベル (O および $\mathrm{C})$ の予測は重み付き学習を行ったものの芳しくなく, これらの予測精度の向上には誤訳例を学習データにより多く含めることが必要であることが示唆される. 表 9 からはラベル $\mathrm{S}$ と予測されたものの多く $(93.5 \%)$ は $\mathrm{S}$ または A とラベル付けされた良い翻訳結果であることが分かり,一定の有効性が認められる.しかしながら,F と B の間の混同,特に $\mathrm{F}$ のものを $\mathrm{B}$ と予測してしまう割合がかなり高いことから,より精緻な識別を可能にする手法やモデルが必要であると言える。付録の表 13 には文意正確性予測の適合率・再現率・F 値を示している. ## 5 おわりに 本稿では,機械翻訳による深刻な誤訳に着目した分類型翻訳評価に向けての本研究のアプローチを示し, それに基づく文意解釈性と文意正確性の評価基準,評価データセットの構築について述べ,また自動評価実験の結果を示した. 評価データセットは WMT の評価尺度タスクのデー 夕に対して人手で文意解釈性と文意正確性のラベルを付与する形で構築した. 評価データセットの分析により, 従来用いられてきた DA スコアに基づく人手評価は内容の矛盾等の深刻な誤りを含むような訳文よりも無関係な訳文や理解不能な訳文を低く評価しており,深刻な誤訳の識別には十分でないことが明らかになった.また,本データセットを利用した自動評価実験では,文意解釈性・文意正確性ともおよそ $60 \%$ の分類精度で評価ラベルの予測ができることを示した. 本デー タセットは別途 Web サイド年で公開予定である. 今後は WMT の評価尺度タスク以外のデータに対しても同様の人手評価を行った評価データセットの構築を予定している。また,ラベルの偏りへの対応としてのデータ拡張,特に誤訳例の拡張が重要な課題と言える. Popović のような語句単位の評価と本研究の文単位の評価の関係も精緻な評価や自動誤り箇所検出のために有用である。さらに,本研究で提案する分類型翻訳評価を NMT 学習時の目的関数に反映させ,深刻な誤訳の生じにくいNMT の実現を目指したい. ## 謝辞 本研究は JST さきがけ (JPMJPR1856) の支援を受けたものである.  ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [2] 嶋中宏希, 梶原智之, 小町守. 事前学習された文の分散表現を用いた機械翻訳の自動評価. 自然言語処理, Vol. 26, No. 3, pp. 613-634, 2019. [3] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In International Conference on Learning Representations, 2020. [4] Wei Zhao, Maxime Peyrard, Fei Liu, Yang Gao, Christian M. Meyer, and Steffen Eger. MoverScore: Text Generation Evaluating with Contextualized Embeddings and Earth Mover Distance. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 563-578, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning Robust Metrics for Text Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [6] Yvette Graham, Timothy Baldwin, Meghan Dowling, Maria Eskevich, Teresa Lynn, and Lamia Tounsi. Is all that Glitters in Machine Translation Quality Estimation really Gold? In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3124-3134, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [7] LDC. Linguistic Data Annotation Specification: Assessment of Fluency and Adequacy in Translations Revision 1.5, January 25, 2005 . Technical report, Linguistic Data Consortium, 2005. [8] Isao Goto, Bin Lu, Ka Po Chow, Eiichiro Sumita, and Benjamin Tsou. Overview of the Patent Machine Translation Task at the NTCIR-9 Workshop. In Proceedings of NTCIR-9 Workshop Meeting, pp. 559-578, 122011. [9] Arle Richard Lommel, Aljoscha Burchardt, and Hans Uszkoreit. Multidimensional Quality Metrics (MQM): A Framework for Declaring and Describing Translation Quality Metrics. Tradumàtica: tecnologies de la traducció, No. 12, pp. 455-463, 122014. [10] Maja Popović. Relations between comprehensibility and adequacy errors in machine translation output. In Proceedings of the 24th Conference on Computational Natural Language Learning, pp. 256-264, Online, November 2020. Association for Computational Linguistics. [11] Maja Popović. Informative Manual Evaluation of Machine Translation Output. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5059-5069, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [12] John S. White, Theresa A. O'Connell, and Francis E. O'Mara. The ARPA MT Evaluation Methodologies: Evolution, Lessons, and Future Approaches. In Proceedings of the First Conference of the Association for Machine Translation in the Americas, Columbia, Maryland, USA, October 5-8 1994. [13] Chris Callison-Burch, Cameron Fordyce, Philipp Koehn, Christof Monz, and Josh Schroeder. (Meta-) Evaluation of Machine Translation. In Proceedings of the Second Workshop on Statistical Machine Translation, pp. 136158, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [14] Michael Denkowski and Alon Lavie. Choosing the Right Evaluation for Machine Translation: an Examination of Annotator and Automatic Metric Performance on Human Judgment Tasks . In Proceedings of the Ninth Biennial Conference of AMTA 2010, 2010. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint 1907:11692, 2019. [16] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the Third International Conference on Learning Representations, 2015. ## A 人手評価分析 表 10, 11 は本稿で述べた評価データセットにおいて各アノテータが付した文意解釈性および文意正確性ラベルの分布を示している. 表 10 各アノテータのラベル分布(文意解釈性) 表 11 各アノテータのラベル分布(文意正確性) ## B 自動評価 表 12,13 は文意解釈性および文意正確性の自動評価実験における,ラベル予測の適合率・再現率・F 值を示している. 表 12 文意解釈性予測の適合率,再現率, $\mathrm{F}$ 值 表 13 文意正確性予測の適合率,再現率, $\mathrm{F}$ 値
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-6.pdf
# ニューラル日英翻訳における適切な出力文数の推定 伊藤均 衣川和克 美野秀弥 後藤功雄 山田一郎 } $\mathrm{NHK}$ \{itou.h-ce, kinugawa.k-jg, mino.h-gq, goto.i-es, yamada.i-hy \} @ nhk.or.jp ## 1 はじめに NHK で放送される英語ニュース用の原稿は,日本語ニュース用の原稿を基に人手で翻訳・編集し制作している. 我々はこの英語ニュース用の原稿制作を支援するためのツールとして日英機械翻訳の研究を進めている. NHK のニュース原稿は, 日本語ニュース用と英語ニュース用で異なる特徴を有する。日本語ニュース用の原稿は一文が長いことが特徴であるのに対し,英語ニュース用の原稿は一文を短く区切る特徴がある. これまでに我々は,この特徴の異なりを考慮した日英機械翻訳システム実現のため, 人手で指定した文数に翻訳結果を制御する手法を提案した [1]. 本稿では, 日英機械翻訳処理における日本語一文に対する適切な英語出力文数の推定手法と, 出力文数推定から制御までの一連の処理について提案する.本手法は推定モデルと制御モデルの 2 つのモデルを用いる。日本語一文に対する翻訳結果が,推定モデルが適切であると予想した文数で出力されるよう制御モデルで出力を制御し,所望の翻訳結果を得る.実験結果から,提案手法は出力文数を推定・制御しない従来の日英ニューラル機械翻訳モデルの出力と比較して,人手による翻訳結果の文数との一致率が高いことを確認した。 ## 2 出力文数の推定・制御タスク 本稿は,機械翻訳における出力文数を以下の $2 \supset$ の処理によって推定,制御する. (a)日本語各文をいくつの英文で翻訳するべきかを推定する. (b)指定した文数で翻訳するよう、機械翻訳の出力を制御する。 我々はこれまで,(b)の課題に対する手法を提案して いる [1]. 本稿では (a)の課題に取り組み, (b)の課題も含む枠組み全体についても評価する。 関連研究として, 目的言語における読者の語学力に併せて翻訳文の読解難易度を制御することを目的とした NMT の手法 [2] や,翻訳品質の向上を目的として NMT の訓練データ中の長文を分割する手法 [3] があるが,これらは訳文の文数を制御する手法ではない. ## 3 提案手法 提案手法は推定モデルと制御モデルの二つのモデルを用いて適切な文数へ翻訳結果を制御する。具体的には,以下の手順で処理を進める。 (1)日本語各文に対する適切な出力英文数を推定する推定モデルと,指定した文数で翻訳結果を出力する制御モデルを,ニューラル機械翻訳モデルを利用し学習する。 (2)推定モデルに翻訳したい日本語一文を入力し,適切な出力英文数を推定する。 (3)制御モデルに (2)の推定結果を入力し, 指定した文数で日英翻訳する. 本研究では,更なる推定性能向上のため制御モデルへ文数を入力する前に推定モデルの出力を補正する前処理を追加することも想定しており,上記のような 2 段階の処理を導入している。 本節ではこのために必要な出力文数の推定手法と。 この推定結果を利用した出力文数制御手法について説明する。 ## 3.1 適切な出力文数の推定 日本語各文に対する適切な出力英文数を推定するため,日本語一文を入力するとその日本語を日英翻訳する際に適切な英文数を表すタグを出力する推定モデルを構築する。 \\ 表 1. 推定モデルの学習データへのタグの付与例 まず,日本語一文に対する翻訳英文のぺアを用意する.これは, 日本語一文に対応する英文は必ずしも一文ずつではなく, 一対多のデータである. 次に, この一対多のデータの各出力の最初の英文の文頭に, その対訳英文が何文であるかを表すタグ(文数タグ) を付与し, 日本語一文とこの文数タグ付き対訳英文とのぺアを推定モデルの学習データとしてニューラル機械翻訳モデルを学習する。 表 1. に推定モデルの学習に用いる学習データの例を示す.こちらの例では, 日本語一文に対して英語 3 文の対訳データであるため, ターゲット言語文の冒頭に”〈3〉”と, 英文数の情報を示す文数タグを付与している. 文数タグは, 出力文数が一文であれば” 〈1〉”, 2 文であれば” 22$\rangle$, 翻訳英文中の数值と区別するために” く〉 内の数字で文数情報を与える. この学習データから構築したモデルのシステムに任意の日本語一文を入力すると, 翻訳結果の先頭に文数タグが出力される. このタグの示す文数を推定モデルにおける適切な英文数の推定結果とし, 後述する制御モデルの入力に用いる. ## 3.2 出力文数の制御 我々はこれまでに, 日本語一文と共に適切な出力英文数を同時に指定することで,指定した文数で日英翻訳結果を出力する制御モデルを提案した[1]. この制御モデルでは手動での出力文数指定も可能であるが,上述の推定モデルの出力によって得られた適切な出力文数を引用することで自動的に出力文数を制御することが可能となる. 制御モデルでは, 日英対訳データの学習データに \\ 表 2. 制御モデルの学習データへのタグの付与例 おいて,文数タグを入力である日本語各文の文頭に配置する (表 2). 学習データ作成時にターゲット言語の出力文数を数え, ソース言語の冒頭に文数タグとして付与する。 この学習データをニューラル機械翻訳モデルに与えて学習することにより, 翻訳文数の制御モデルを構築する。 この制御モデルを用いて翻訳結果を出力する際には,翻訳したい日本語各文の冒頭に,推定モデルによって得られた文数タグを付与し,制御モデルへ入力することで最終的な翻訳結果を取得する. ## 4 実験 ## 4. 1 実験条件 NHK の日本語ニュースを人手により英訳し, 約 10 万文対の実験データを構築した。このうち学習デー 夕,開発データにはそれぞれ約 96,000 文対,5,000 文対を用いた。評価データには日本語文 772 文を用意し, 評価データのみ翻訳者 2 名(翻訳者 $\mathrm{A}$, 翻訳者 B とする)がそれぞれ日英翻訳したマルチリファレンスデータとした. 学習モデルは NMT ツールキット” Sockeye [4]" を使用した。パラメータについては表 3 の項目について表記の値に変更し, その他のパラメータについてはデフォルト値を使用した. 出カユニット単位の決定には Byte Pair Encoding [5] でサブワードに分割した。 推定モデル・制御モデルの学習にはそれぞれ学習データの出力英文数を文数タグとして用い, 出力英文数はサブワード” .”の数とした. & 0.2 \\ 表 4. 出力文数の一致率の比較 表 3. Sockeye で用いたパラメータ 図 1. 入力単語数ごとの人手翻訳英文数の占有率 ## 4.2 翻訳手法 4.1 節の条件下で推定モデルを学習した上で, 以下の翻訳手法から得られる翻訳結果を比較した. (a)Baseline:上記のデータを用いて学習データをそのまま使用し学習、翻訳したもの (b)Tag:制御モデルにおいて評価データの出力英文数を入力の文数タグとして与えて翻訳したもの。それぞれ制作者 A の出力文数を用いたものを Tag (refA), 制作者 B の出力文数を用いたものを $\mathrm{Tag}(\mathrm{refB})$ とする. (c) Assume_Tag:推定モデルによって推定した出力文数を制御モデルの入力の文数タグとして与えて翻訳したもの. ## 4.3 実験結果 ## 4.3.1 出力文数の一致率の比較 まず,評価データの日本語各文に対する出力英文数と評価データの英文数との一致率を比較した(表 英文数と一致していれば一致とみなして算出したも 表 5. BLEU 値の比較 のを指す。文数を制御せずに翻訳した場合 (Baseline) と比較して, 推定モデルを用いた手法の一致率が $81,8 \%$ から $87.0 \%$ に向上し, 学習データに出力文数を明示的に与えることの効果を観測することが出来た. また, 推定モデルと制御モデルの両方を用いた手法(Assume_Tag)でも 87.0\%の一致率を得た.制御モデルだけに着目すると, 評価データの出力文数を文数タグとして与えた場合も推定モデルの推定結果を文数タグとして与えた場合も, 文献[1]で示したように制御モデルによる一致率の低下なく文数を制御することが出来た。 Tag (refA)の一致率は $97.8 \%$, Tag (refB) は $99.1 \%$ と, 出力文数を指定すれば,ほぼその通りの文数で翻訳できることが分かる. 出力文数の推定タスクの難しさを調べるために,入力文長と出力文数との関係を調査した. 図 1 に翻訳者 A の翻訳結果における, 入力文の単語数ごとの出力文数の占有率のグラフを示す. こちらのグラフは各入力文を入力単語数で 10 単語単位に分類した際の人手翻訳英文数の占有率を示している. グラフから, 日本語一文に対する入力単語数と人手翻訳英文数には一定の相関があるが,重なりのある部分も多く,難しいことが分かる. また, 評価データにおける翻訳者 2 者の平均英文数は翻訳者 $\mathrm{A}$ が 1.73 文, 翻訳者 $\mathrm{B}$ が 1.47 文で, 両者の文数一致率は $65.8 \%$ と両者の一致度は高くはなかった. 推定プロセスを経ることで文数一致率が向上していることから入力文の内容と翻訳英文数との間には何らかの相関があると推測できるが,更なる推定性能向上のため翻訳結果を複数文に分割する要因の分析については今後の課題とする. ## 4.3.2 翻訳性能の比較 次に, 各手法の BLEU 值について比較した (表 5). $\mathrm{BLEU}$ 值は翻訳者 $\mathrm{A}$ ・ B 両者の翻訳結果をマルチリフ アレンスとして測定した。推定モデルの結果を反映させた手法(Assume_Tag)では Baseline と比較して BLEU 値の低下が観測された. 人手翻訳時の出力文数を与えて翻訳した手法(Tag_refA, Tag_refB)では Baseline と比較して BLEU 值が向上していることから, 出力文数の一致率と BLEU スコアには相関があることが分かる. 一方で, 出力文数を制御出来たとしても BLEU スコアの改善には繋がらなかった. これは出力文数が一致することとリファレンスとの翻訳表現が一致することは同義ではないためと考察する. 文数推定モデルにより文数一致率が向上したことから,人手翻訳において適切な出力文数は一定の基準に従って定まることは推測出来るが,翻訳表現については翻訳者ごとに個性があり, 出力文数が一致したとしても出力結果は必ずしも一致しない. 更なる原稿制作支援のため,今後入力文の情報が翻訳時に各文にどのように分割されるか分析を進めたい。 ## 5 おわりに 本稿では,NHK のニュースを対象とした日英翻訳において, 日本語一文に対する翻訳として適切な英文数を推定し,推定結果に基づいた文数で翻訳するためのニューラル機械翻訳モデルを提案した.提案手法は適切な文数を推定する推定モデルと, 指定した文数で翻訳する制御モデルの 2 つのモデルで構成され,推定・制御を経由しない従来の機械翻訳モデルの出力と比較して人手翻訳結果の出力文数との一致率を $6.4 \%$ 向上させることが出来た. 今後は更なる翻訳性能と制作支援効果向上に向けた手法を検討する。 ## 参考文献 1. ニューラル機械翻訳における出力文数の制御. 伊藤ほか: 人工知能学会, 2020 2. Controlling Text Complexity in Neural Machine Translation. S. Agrawal et al. : EMNLP, 2019 3. Automatic Long Sentence Segmentation for Neural Machine Translation. S.Kuang et al. : ICCPOL, 2016 4. Sockeye: A Toolkit for Neural Machine Translation. F. Hieber et al. : arxiv, 2017 5. Neural Machine Translation of Rare Words with Subword Units. R. Sennrich et al. : ACL, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-7.pdf
# Positional Encoding への摂動付与による長さ制御を用いた 非自己回帰型機械翻訳のための知識蒸留 岡佑依 須藤 克仁 中村哲 奈良先端科学技術大学院大学 \{oka.yui.ov2, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 近年, ニューラルネットを用いた機械翻訳(NMT) の手法が多く考案されている。これらの手法において,注視機構を用いた自己回帰型エンコーダ・デコーダモデルは自然性があり高い精度の翻訳結果を残している. 特に,Transformer[1] は Self-Attention, Multi-Head Attention, Positional Encoding という独自の機構を利用して,高い精度の翻訳結果を残した。我々の研究 [2] では,高瀬ら [3] が提案した長さ制約付き Positional Encoding を機械翻訳に適用し,摄動を加えることによって翻訳精度を改善した. さらに通常の Transformer と比べ長く出力することを可能とした. また,推論時に与えられる長さが参照訳の長さと一致する場合,大きく翻訳精度を改善した。 非自己回帰型エンコーダ・デコーダモデルは,自己回帰型モデルと比べ高速な翻訳を可能とするが,翻訳精度は低く, 通常の自己回帰型モデルと比べてさらに短い文を生成する傾向にある。 本研究では,長さ制約つき Positional Encoding への摂動を用いて知識蒸留をすることで非自己回帰型モデルの翻訳精度の改善を試みた。さらに,既存の非自己回帰型モデルの一つである Levenshtein Transformer[4] に長さ制約付き Positional Encoding への摂動を適用することで長い文を生成し,訳抜けを改善することを試みた。 ## 2 関連研究 ## 2.1 Positional Encoding による出力長制御 Positional Encoding(以下,PE)は, Transformer のエンコーダ・デコーダ両者において各埋め込み表現に対し,その位置に対応した絶対的な値を足し合わせることで位置情報を与える役割を持つ. その時足し合わせる値は正弦関数と余弦関数の式で表され る. トークンの位置を pos, 埋め込み表現の次元数を $d$ とすると $i$ 番目の次元の埋め込み表現に足し合わせる $P E$ は以下のようになる. このとき,偶数次元は正弦関数,奇数次元は余弦関数で定義される. $ \begin{gathered} P E_{(p o s, 2 i)}=\sin \left(\frac{p o s}{10000^{\frac{2 i}{d}}}\right) \\ P E_{(p o s, 2 i+1)}=\cos \left(\frac{p o s}{10000^{\frac{2 i}{d}}}\right) \end{gathered} $ 高瀬ら [3] はデコーダ側の PE の式に所望の出力長の値を組み込んだ。これにより,文生成時に所望の出力長までの残りのトークン数を考慮することが可能である。提案された式は終端までの比率に応じた LRPE (length-ratio positional encoding), 終端までの差に応じた LDPE (length-difference positional encoding) の 2 種類がある,例えば LDPE は以下のように表される。 $ \begin{gathered} L D P E_{(p o s, l e n, 2 i)}=\sin \left(\frac{\text { len }-p o s}{10000^{\frac{2 i}{d}}}\right) \\ L D P E_{(p o s, l e n, 2 i+1)}=\cos \left(\frac{\text { len }-p o s}{10000^{\frac{2 i}{d}}}\right) \end{gathered} $ len は所望の出力長を表す. LRPE,LDPE の值はベースラインの Transformer の PE と同じように各埋め込み表現に足し合わせる。また,エンコーダ側にはベースラインの Transformer と同様の PE の式が適用される。 ## 2.2 長さ制約付き Positional Encoding への 摂動 機械翻訳において,LRPE,LDPE を用いると,出力長制御性と引き換えに翻訳精度が大きく落ちることがわかっている.これを改善するため,長さ制約付き PEへの摄動 (Perturbation into Length-aware Positional Encoding)を,我々は[2]で提案した. LDPE に摂動を与える場合,以下の式で定義される。 $\operatorname{perLDPE_{(pos,len,2i)}}=\sin \left(\frac{\text { len }- \text { pos }+ \text { perturbation }}{10000^{\frac{2 i}{d}}}\right)$ $\operatorname{perLDPE_{(pos,len,2i+1)}}=\cos \left(\frac{\text { len }- \text { pos }+ \text { perturbation }}{10000^{\frac{2 i}{d}}}\right)$ 摄動 perturbation は学習時,ある特定の整数の範囲から一様分布に基づいて選択され, 文単位ごとに足し合わされる. 我々は [2] において,摄動範囲 $[-2,2], \quad[-4,4]$ の負の値も含める範囲で実験を行った. さらに,大規模言語モデル BERTを用いて推論時の出力長の予測を行うことで翻訳精度を改善した. また,参照訳と同じ長さを LDPE,LRPE に入力するとき,翻訳精度は大きく改善することが明らかになっている. ## 2.3 Levenshtein Transformer 非自己回帰型ニューラル機械翻訳モデル (以下, NAT) は,各ステップの出力トークンを次のステップの入力に利用する自己回帰 (autoregression) に基づいて翻訳するモデル (以下,AT) とは異なり,自己回帰を用いず文内のトークンを並列に予測するプロセスを繰り返して翻訳を行う [5].これによって並列計算が可能になり, 非常に高速な翻訳を実現する. Jiatao Gu ら [4] が提案した,NAT モデルの一つである Levenshtein Transformer は,空トークン <PLH>を插入する (placeholder) 機構,空トークンに単語を挿入する (insert) 機構,不必要なトークンを削除する (deletion) 機構の 3 つのデコーダを持つ. デコーダでは全て Position Embedding が用いられており, 各 embedding はエンコーダ, デコーダで共有される. 翻訳時に,これら 3 つの処理を繰り返し行うことで高速かつ Transformer に近い翻訳文生成を可能にした. ## 2.4 知識蒸留 上述した NAT モデルは高速な翻訳を実現するが,翻訳精度は AT と比べ大きく劣る.これを改善するため,NAT モデルを訓練する際,既存の AT モデルを用いて知識蒸留した訓練データを用いる。この時,AT モデルは教師モデル (通常,Transformer が用いられる),NAT モデルは生徒モデルとなる。これによって,高品質な AT モデルの出力を NAT モデルに模倣させることが可能であり,NAT モデルの翻訳精度は教師モデルである AT モデルに依存する [6]. ## 3 提案手法 Levenshtein Transformer 提案手法 図 1 Levenshtein Transformer と提案手法の比較 通常の知識蒸留を用いた Levenshtein Transformer と提案手法の流れを図 1 に示す。 ## 3.1 長さ制約つき Positional Encoding への 摂動を用いた知識蒸留 本研究では,この知識蒸留で教師モデルとして用いる Transformerに長さ制約付き $\mathrm{PEへの}$ 摂動を適用することで,生徒モデルである NAT モデルの翻訳精度を改善する手法を提案する.知識蒸留における訓練データの翻訳時において出力すべき長さが既知 (正解参照訳長が存在する) であるため,翻訳時に長さ制約付き $\mathrm{PE}$ に入力する長さは参照訳の長さを入力する. これにより教師モデルである AT モデルが出力する翻訳文の精度を改善することで,生徒モデルである NAT モデルの翻訳精度の改善が期待される。 ## 3.2 長さ制約つき Positional Encoding への 摂動を用いた Levenshtein Transformer さらに, Levenshtein Transformer の空トークン <PLH>を插入する機構 (placeholder) に長さ制約付 る機構は placeholder のみであることから,挿入機構 (insert), 削除機構 (deletion) には通常の position embedding を適用した.また, エンコーダ側も position embedding を適用した. 先行研究では $[-2,2]$ のように負の值も PEへの摂動範囲に加えるが,本研究では $[0,2]$ のように正の値のみを摂動範囲として適用する。これは,モデルができるだけ長い文を生成するように学習するためである。また, Levenshtein Transformer ではエンコーダ・デコーダ間の embedding を共有して学習するが,提案手法では共有しないとする。 そして翻訳時では, [2] と同様,学習済み言語モデルで予測した長さを入力する場合と, [7] と同様に,原言語文の長さを入力する場合を検証する。 ## 4 実験 ## 4.1 実験設定 提案手法による知識蒸留と Levenshtein Transformer の性能を調べることを目的とし,実験を行った. 本研究では,英日・英独翻訳をタスクとした. データセットには,英日翻訳には対訳コーパス ASPEC[8], 英独翻訳には WMT14[9] を用いた. ASPEC は 1,783,817 文対の学習データ,1,790 文対の開発データ,1,812 文対のテストデータからなり, 今回学習には 100 万文対の学習データである train-1.txt のみを使用した. 英語及び日本語の入出力はサブワードとし, Sentencepiece[10]を使いトークナイズを行った. このとき, 語彙サイズは 16,000 とし, 言語間で共有した. WMT14 は, Stanford NLP group ${ }^{1)}$ で配布された前処理済みのデータセットを用いた。学習データは 440 万文対で構成され, 各文は 50 語以内で構成される. 開発データには 3,000 文対で構成される newstest2013, テストデータには 2,737 文対で構成される newstest2014を用いた. トークナイズ方法は ASPEC と同様であり, 語彙サイズのみ 32,000 とした。実装には fairseq[11]を用いた。 ハイパーパラメータは全てにおいて2)と同じにした。 本研究ではlen に出力文のトークン長を与える.このトークン長は Sentencepiece でトークナイズされたときのものである. 教師モデルのベー スラインには, sinusoidal Positional Encoding を用いた base Trasnformer を, 生徒モデルのベースラインには, Position Embedding を全デコーダに適用した Levenshtein Transformerを用いた. 提案手法では,知識蒸留に用いる教師モデル Transformer に適用する長さ制約付きPEはLDPEを用い, 学習時に与える摂動範囲は英日翻訳の時 $[-4,4]$, 英独翻訳の時 $[-6,6]$ とした. また, 生徒モデル Levenshtein Transformer に適用する長さ制約付き PE は LDPE を用い,学習時に与える摄動範囲は $[0,2]$ のみとした. 翻訳時,英日翻訳では [2] と同様に,BERT[12]のエンコーダーの最後の層にある $[\mathrm{CLS}]$ ベクトルの出力を回帰問題として出力長を予測した. 英独翻訳では [7] と同様に原言語文長の長さをLDPE の入力とした. さらに,両方の翻訳において参照訳の長さを入れた場合も比較した.  表 1 知識蒸留の教師モデルとして用いた AT モデルの比 表 2 日英対訳コーパス ASPEC における NAT モデルの 翻訳文の評価手法には機械翻訳の自動評価として一般的な BLEU[13] とサブワード単位の Length ratio を用い,sacreBLEU[14] で計算した。また,知識蒸留の教師モデルの評価にも [6] と同様,BLEUを用いる. ## 4.2 実験結果 表 1 に知識蒸留の教師モデルとして用いた AT モデルの学習データの翻訳精度を示す. 提案手法の知識蒸留法が既存手法よりも文単位の知識蒸留において優れていることがわかる. 表 2, 表 3 に各コーパスにおける生徒モデルの翻訳精度を示す.太文字はベースラインである Levenshtein Transformer より BLEU が向上したもの,下線部は参照訳長が既知の時,すなわち正解長を入力した時 Levenshtein Transformer より BLEU が向上したものを示す. 英日翻訳では,提案手法である知識蒸留を用いた場合,全ての生徒モデルにおいて翻訳精度が改善した. 通常の Levenshtein Transformer で比べると, 0.3 ポイントの BLEU 値の改善が見られた. さらに,提案する知識蒸留法を用いない場合でも,提案手法である Levenshtein TransformerにLDPEへの摄動を適用した時,翻訳精度は改善することがわかった. 参照訳長を用いた場合, 0.6 ポイントの BLEU 値の改善 (34.6) が見られ, 入力長によっては最大 0.6 ポイントの BLEU 值の改善が見込めることがわかった. さらに,学習済みモデルで長さを予測し入力することで LR が上がったことも BLEU 值の改善に繋がっ たことがわかる. しかしながら, 全ての生徒モデルにおいて,BLEU 值は教師モデルとして用いた AT モデルである通常の Transformer に劣る結果となった。また,BERTによる長さ予測の精度は,参照訳長との平均トークン誤差が 3.0, トークン誤差分散が 19.92 であった. 原言語文長と参照訳長との平均トークン誤差は 6.54 , トークン誤差分散は 72.45 であった。これは,英日翻訳では,原言語文長ではなく,BERTによって予測された長さの方が参照訳長に近いことを示している。 英独翻訳では,英日翻訳のような結果は見られなかった. 提案手法である知識蒸留を用いると,同じ Levenshtein Transformer においても BLEU の向上は見られなかった. さらに,提案する NAT モデルにおいて,原言語文長を用いた場合,BLEU は下がった.しかしながら,提案するNAT モデルに参照訳長を用いた時,通常の Transformer より 0.9 ポイント BLEU 值の改善する (31.0)ことがわかった. ## 4.3 摂動範囲による翻訳精度の推移 提案した NAT モデルの摂動範囲を変えることで,翻訳精度が改善するのかを英日・英独翻訳それぞれで検証した。知識蒸留に用いた教師モデルは表 1 のベースライン Transformer,実験設定は 4.1 と同じである。検証した摄動範囲は $[0,2]$ に加え, $[0,4],[0,6]$ である。表 4 に,実験結果を示す. 英日・英独翻訳両方において,摂動範囲が大きくなるにつれて, Length ratio が下がっていることがわかった. 英日翻訳において,摂動範囲 $[0,6]$ の時,摄動範囲 $[0,2]$ を用いた時と比べて 0.1 の BLEU の改善が見られたが,それ以外で改善は見られなかった. また,英独翻訳では摄動範囲を大きくしてもべースラインの Levenshtein Transformer と比べ翻訳精度の改善は見られなかった。 ## 4.4 考察 実験結果より,提案した知識蒸留は英日翻訳における生徒モデルの翻訳結果の向上に有効であると考えられる。また,生徒モデルである NAT モデルに長さ制約付き $\mathrm{PE} への$ 摂動を用いた提案手法において,参照訳長を用いた場合より BERT による予測長を用いた場合において翻訳精度が下がった原因は長さ予測の精度にあると考えられる。これは BP の値を見比べたとき,参照訳長を用いた場合 BP の値が大きく変化していることからもわかる.英独翻訳では提案した知識蒸留と NAT モデル両方において有効性は見られなかった。しかしながら,提案した NAT モデルに参照訳長を入力した時,翻訳精度は大きく改善することから,入力する長さを改善することで翻訳精度が改善すると考えられる。 ## 5 おわりに 留に用いる教師モデル,そして生徒モデルである Levenshtein Transformerへ適用することを提案した.結果として,最大 0.3 ポイントの BLEU 値の向上が見られた。英日翻訳において。提案した知識蒸留と NAT モデルは有効であることがわかった. 英独翻訳では出力長予測精度の影響で改善が見られず,より高精度な出力長予測が今後の検討課題である. ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである. ## 参考文献 [1]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [2]Yui Oka, Katsuki Chousa, Katsuhito Sudoh, and Satoshi Nakamura. Incorporating noisy length constraints into transformer with length-aware positional encodings. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3580-3585, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [3]Sho Takase and Naoaki Okazaki. Positional encoding to control output sequence length. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3999-4004, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4]Jiatao Gu, Changhan Wang, and Junbo Zhao. Levenshtein transformer. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32, pp. 1118111191. Curran Associates, Inc., 2019. [5]Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. $\mathrm{Li}$, and Richard Socher. Non-autoregressive neural machine translation. In International Conference on Learning Representations, 2018. [6]Chunting Zhou, Jiatao Gu, and Graham Neubig. Understanding knowledge distillation in non-autoregressive machine translation. In International Conference on Learning Representations, 2020. [7]Surafel Melaku Lakew, Mattia Di Gangi, and Marcello Federico. Controlling the Output Length of Neural Machine Translation. In Proceedings of the 16th International Workshop on Spoken Language Translation (IWSLT 2019), October 2019. [8]Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [9]Ondrej Bojar, Christian Buck, Christian Federmann, Barry Haddow, Philipp Koehn, Johannes Leveling, Christof Monz, Pavel Pecina, Matt Post, Herve Saint-Amand, Radu Soricut, Lucia Specia, and Aleš Tamchyna. Findings of the 2014 workshop on statistical machine translation. In Proceedings of the Ninth Workshop on Statistical Machine Translation, pp. 12-58, Baltimore, Maryland, USA, June 2014. Association for Computational Linguistics. [10]Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [11]Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [12]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [13]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [14]Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-8.pdf
# ニューラル機械翻訳のためのアテンション確率のスムージング とゲーティング学習 張 潚廙 愛媛大学 zhang@ai.cs.ehime-u.ac.jp 二宮崇 愛媛大学 ninomiya@cs.ehime-u.ac.jp } 田村 晃裕 同志社大学 aktamura@mail.doshisha.ac.jp ## 1 はじめに 近年、人工知能の発展とともに、自然言語処理分野においてもニューラルネットワーク (Neural Network) に基づく手法が主流になっており、特に機械翻訳のタスクにおいてはニューラルネットワー クを用いた機械翻訳 (ニューラル機械翻訳) が高い精度と自然な翻訳を実現することから大きく注目を集めている。ニューラル機械翻訳モデルとして、LSTM (Long-Short Term Memory)を用いた回帰型ニューラルネットワーク (Recurrent Neural Network; RNN) に基づくエンコーダー・デコーダーモデルが提案され [1]、さらにアテンション機構 (Attention Mechanism)[2] によって翻訳精度が大きく改善された。Transformer[3] は、回帰的構造を持たずアテンション機構だけから構成されるエンコーダー・デコーダーモデルであり、言語間アテンションに加え、原言語文や目的言語文における各単語間のアテンション (自己アテンション)を計算することを特徵とする。回帰的構造を持たない代わりに位置エンコーディングを埋め込むことで、単語の位置情報や前後関係を捉えている。また、マルチヘッドをアテンション機構に導入しており、中間表現ベクトルを各ヘッドに分割し、各ヘッドにおいてアテンションを計算することにより様々な文の特徴を捉えることを可能としている。 Transformer は、非常に高い翻訳精度を実現することから、現在も多くの翻訳モデルのベースとなっており、時系列をより強い関係で結びっける Monotonic Attention[4] や、異なるアテンションマスクを導入した Mixed Multi-Head Self Attention[5]、 Highway Transformer[6]、Capsule Networks[7]、Multi- Hop Attention[8] などが提案されている。また、アテンションに関する解析では、アテンションの確率計算は単なる重みの計算ではないという報告がなされている [9]。Transformer およびこれらの Transformer に基づく手法のいずれも、そのアテンション計算はソフトマックス関数を使った関連性計算を行っており、計算結果はある単語に対する文中の各単語との関連性を表す離散的な確率分布になっている。ソフトマックス関数はその性質から一つや二つの単語だけにきわめて高いピークの確率を与えることが多いが、そのため、単語確率分布におけるデータスパースネスや過学習の問題が混在している可能性がある。 そこで、本論文ではアテンションの関連性計算に対してスムージング (Smoothing)を適用し、その確率値を調整する手法を提案する。具体的には、ラべルスムージング手法 [10] を用いたアテンションスムージング (Attention Smoothing) と、スムージングのパラメータをモデルに学習させるゲートスムージング (Gate Smoothing)を提案する。WAT の ASPEC 英日翻訳タスクにおいて実験を行い、アテンションスムージングによって BLEU(\%) 值が+0.74 向上し、 ゲートスムージングによって BLEU(\%) 值が+0.99 向上することを確認した。 ## 2 Transformer Transformer は近年ニューラル機械翻訳で最もよく使われるエンコーダー・デコーダーモデルの一種である。原言語の文をエンコーダーに入力し、エンコーダからは大力に対する中間表現が出力される。 デコーダーには、エンコーダーの中間表現および現時点までの訳文を入力し、それらを組み合わせて次 の時刻の単語を生成する。長さ $S$ の原言語の文を $X=\left.\{x_{1}, x_{2}, \cdots, x_{S}\right.\}$ とし、長さ $T$ の目的言語の文を $Y=\left.\{y_{1}, y_{2}, \cdots, y_{T}\right.\}$ とすると、生成の過程は以下の式で表せる。 $ P\left(y_{t} \mid y_{<t}, X\right)=\mathbb{M}\left(y_{<t}, X\right) $ ただし、Мはモデルを表す。モデルは時刻ごとに次の単語を生成する確率を算出する。 Transformer のエンコーダーおよびデコーダーは、 それぞれスタックされた 6つのレイヤーから構成される。エンコーダー側のレイヤーは自己アテンション層とフィードフォワード層で構成され、デコー ダー側のレイヤーは自己アテンション層と言語間アテンション層、フィードフォワード層で構成される。 アテンションの計算について説明する。入力をクエリー $q$ 、キー $k$ 、バリュー $v$ とする。クエリーとキーで単語間の関連度を計算し、それを重みとしてバリューの重み付き平均値を計算する。計算過程は以下の式で表せる。 $ \begin{aligned} \text { score } & =\mathbf{W}^{q}(q) \cdot \mathbf{W}^{k}(k)^{\top} \\ a & =\operatorname{softmax}(\text { score }) \\ o_{i} & =\sum_{j=1}^{V} a_{i j} \mathbf{W}_{j \cdot}^{v}(v) \end{aligned} $ ただし、 $W^{(q)} \in \mathbb{R}^{Q \times d}, W^{(k)} \in \mathbb{R}^{K \times d}, W^{(v)} \in \mathbb{R}^{V \times d}, a \in$ $\mathbb{R}^{Q \times K}, o_{i} \in \mathbb{R}^{d} 、 d$ は隠れ層の次元数、 $Q, K, V$ はクエリー、キー、バリューの長さを表し、 $i \in$ $\{1,2, \cdots, Q\}, j \in\{1,2, \cdots, K\}$ かつ $K=V$ を満たしている。 $\operatorname{softmax}(\cdot)$ はスコアを正規化するための活性化関数であるソフトマックス関数である。ソフトマックスの計算結果は $\sum_{j=0}^{V} a_{i j}=1(\forall i)$ という制約が課せられる。 自己アテンションでは、クエリー、キー、バリュー はそれぞれ前の層からの出力となる。前の層からの出力は、エンコーダー側では原言語の中間表現であり、デコーダー側では目的言語の中間表現である。言語間アテンションでは、クエリーはデコーダー側の前の層の出力、キーとバリューはエンコーダー側の最終レイヤーの出力になる。 自己アテンションと並んで Transformer において重要な部分はマルチヘッドアテンションである。 マルチヘッドの場合は、次元数をへッド数で割り、 ヘッドごとにアテンションの計算を行う。マルチヘッドアテンションは自己アテンションや言語間アテンションに適用される。 ## 3 提案手法 従来のマルチヘッドアテンションは単語間の関連性 $a$ を計算するためにソフトマックス関数を使い $a_{i j} \in(0,1)$ s.t. $\sum_{j=0}^{V} a_{i j}=1(\forall i)$ という制約の下で単語間の関連性を表す。ソフトマックス関数で正規化する際には指数関数が適用されるため、関連の高い単語に対する値がより顕著になるような確率值が算出される。その結果、一つや二つの単語にだけきわめて高い確率が割り振られる $\left(\max _{j}\left[a_{i j}\right] \gg a_{i k}(k \neq j, \forall i)\right)$ ため、アテンション確率においても過学習の問題が混在している可能性が高い。そこで、本研究ではアテンションで単語間の関連性を算出する際にスムージングを行う手法を提案する。 ## 3.1 アテンションスムージング 分類モデルの学習時に損失を計算する際、正解ラベルのみに基づいて損失を計算すると過学習を起こしてしまう可能性がある。ラベルスムージングは、 そのような過学習を抑えるための手法であり、正解ラベルに対する確率を一定率低くし、正解ラベル以外のラベルに対する確率を一定率高めることで、ラベル確率分布を滑らかにする。 本研究では、ラベルスムージングの手法をアテンションの算出時に適用するアテンションスムージングを提案する。アテンションスムージングは、ラベルスムージングに倣い、アテンションの計算による単語間関連度を表す確率分布を滑らかにする。具体的には、次式のように、アテンションの確率分布に対して、最も高い確率を一定率 $(s)$ 低くし、その他の確率を一定率 $(1 / s)$ 高める方法である。 $ \begin{gathered} \hat{a}_{i j}=\left.\{\begin{array}{cc} a_{i j} \cdot s & j=\underset{j}{\arg \max }\left[a_{i j}\right] \\ a_{i j} \cdot \frac{1}{s} & j \neq \underset{j}{\arg \max }\left[a_{i j}\right] \end{array}\right. \\ o_{i}=\sum_{j=1}^{V} \hat{a}_{i j} \mathbf{W}_{j}^{v} \cdot(v) \end{gathered} $ ただし、 $s \in \mathbb{R}$ はスムージングの強さを制御するハイパーパラメータであり、 $0<s \leq 1$ を満たしている。 $s$ をさくするほど、過度なピークの情報を抑えてアテンションの単語確率分布を滑らかにする。 $s=1$ の場合、アテンションスムージングを用いない従来手法と同等になる。 表 1 実験結果 ## 3.2 ゲートスムージング アテンションスムージングでは、スムージングの強さを表すハイパーパラメータ $s$ を人手で調整する必要がある。本研究では、ゲーティングの仕組みを取り入れて、スムージングの強さもパラメータとして学習するゲートアテンションを提案する。ゲー トアテンションを数式で表現すると以下の通りとなる。 $ \begin{aligned} \text { score }_{s} & =\mathbf{W}^{s q}(q) \cdot \mathbf{W}^{s k}(k)^{\top} \\ \hat{s} & =\gamma \cdot \sigma\left(\text { score }_{s}\right) \\ \hat{a} & =a \odot \hat{s} \\ o_{i} & =\sum_{j=1}^{V} \hat{a}_{i j} \mathbf{W}_{j}^{v}(v) \end{aligned} $ ただし、 $\mathbf{W}^{s q} \in \mathbb{R}^{Q \times d}, \mathbf{W}^{s k} \in \mathbb{R}^{K \times d}, \hat{s} \in \mathbb{R}^{Q \times K}$ であり、式 8 がスムージングの強さを表すパラメータを算出する部分である。 $\sigma(\cdot)$ は大力の要素ごとにシグモイド関数を適用する関数、 $\gamma \in \mathbb{R}$ はスムージングの値域を調整するハイパーパラメータである。 る。このようにすることで、スムージングの強さ $\hat{s}$ を訓練データからモデルで学習させることができる。 ## 4 実験 本実験では、Vaswani ら [3] の Transformerをべー スラインにして提案手法の有効性を検証する。 ## 4.1 実験データ 本実験では、WAT の ASPEC 英日翻訳タスクの訓練データセットの一部である train1.txt $(1,000,000$文対)を訓練データとして用いた。英日両方において文長が 50 以下のデータだけを用いて学習した。用いた訓練データ数は 907,356 文対であった。検証データとテストデータは ASPEC 英日翻訳タスクの検証データセットとテストデータセットを使った。検証データとテストデータは、それぞれ 1,790文対と 1,812 文対であった。英語文の形態素解析は WAT の手順にしたがい、日本語文の形態素解析は $\mathrm{KyTea}^{1)}$ を使った。 訓練データ $1,000,000$ 文対において出現頻度が 3 以下の単語は語彙辞書には登録せず、辞書に登録されていない単語は特殊トークン<UNK>に置き換えた。 ## 4.2 モデル設定 提案モデルのパラメータはベースラインモデル2)にあわせた。エンコーダーとデコーダーのレイヤー数は 6、ドロップアウトの確率は 0.1、 ウォーミングアップステップ数は 4,000 、バッチサイズは 200、エポック数は 20 とした。オプティマイザーは Adam を用い、学習パラメーターは $\alpha=0.001, \beta_{1}=0.9, \beta_{2}=0.98, \epsilon=1 e-9$ 、学習率減衰は 0.0001 に設定した。アテンションスムージングでは $s=0.9 、$ ゲートアテンションでは $\gamma=2$ とした。 ## 4.3 実験結果 実験結果を表 1 に示す。表 1 より、ベースラインモデルと比較して、アテンションスムージングで BLEU(\%) の性能向上が確認できた。 ただし、ゲートスムージングはレイヤーごとに新しいパラメータが追加されており、ベースラインモデルよりもパラメータ数が増えている。その影響を排除して、ゲートスムージングの効果を確認するためダミーパラメータモデルを用意した。ダミーパラメータモデルは下記の計算式に従ってアテンションの計算を行うモデルであり、ベースラインモデルのパラメータ数を単純に増やしたモデルとなっている。 $ \begin{aligned} \operatorname{score}_{s} & =\mathbf{W}^{s q}(q) \cdot \mathbf{W}^{s k}(k)^{\top} \\ \hat{s} & =\operatorname{softmax}\left(\operatorname{score}_{s}\right) \\ \hat{a}_{i j} & =\left(a_{i j}+\hat{s}_{i j}\right) / 2 \\ o_{i} & =\sum_{j=1}^{V} \hat{a}_{i j} \mathbf{W}_{j \cdot}^{v}(v) \end{aligned} $ ここで、式 12 と式 13 がゲートスムージングモデルとの差分となる。ゲートスムージングでの式 8 が式 12 に対応している。式 13 では $a$ と $\hat{s}$ を要素ごとに 1) http://www.phontron.com/kytea/index-ja.html 2) https://github.com/jadore801120/attention-is-all-you-needpytorch/tree/master/transformer 足して 2で割る。表 1 より、ゲートスムージングはダミーパラメータモデルよりも性能が高いことがわかる.この結果から、パラメータ数にかかわらず、式 8、9 の効果(ゲートスムージングの効果)が確認できた。 ## 4.4 ゲートスムージングの効果 ゲートスムージングにおいて学習されたスムージングに関するゲート值の実例を表 2 に示す。表 2 は、"By deciding strategy, industrygovernment-university should unitarily promote."という入力文に対して、ピリオド “.”との関連性を計算した際に、エンコーダー側の最終レイヤー で算出された $a_{j}$ と $\hat{s}_{j}$ である。表 2 より、関連性の強い $a_{3}$ (strategy に対する関連) や $a_{5}$ (industrygovernment-university に対する関連) に対し、低めの $\hat{s}_{3}=0.93, \hat{s}_{5}=0.95$ が与えられ、関連性の弱い $a_{7}, a_{8}, a_{9}$ に対し、 $\hat{s}_{7}=1.00, \hat{s}_{8}=0.98, \hat{s}_{9}=0.98$ という高い値が与えられた。このことから全体的な分布を滑らかにする方向に学習していることが確認できた。 ## 5 おわりに 本研究では、アテンションでの関連性計算において数単語にきわめて高い確率が与えられるという現象を緩和するため、アテンションスムージングという手法を提案した。アテンションスムージングでは人手でスムージングのパラメータを決める必要があるが、このスムージングのパラメータをモデルに学習させる手法としてゲートスムージングを提案した。WAT の ASPEC 英日翻訳タスクで提案手法の有効性を確認した。 今後の課題として、スムージングの関数を変えるなど、より良い形で関連性を調整できる式を作りたい。 ## 謝辞 本研究成果は, 国立研究開発法人情報通信研究機構の委託研究により得られたものである. また,本研究の一部は JSPS 科研費 20K19864 の助成を受けたものである.ここに謝意を表する. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. Proceedings of the 27th International Conference on Neural Information Processing Systems, 2014. [2] Dzmitry Bahdanau, KyungHyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. ICLR 2015, 2016. [3] Ashish Vaswani, Noam Shazeer, and Niki Parmar et.al. Attention is all you need. 31st Conference on Neural Information Processing Systems, 2017. [4] Yingzhu Zhao, Chongjia Ni, and Cheung-Chi Leung et.al. Cross attention with monotonic alignment for speech transformer. INTERSPEECH 2020, 2020. [5] Hongyi Cui, Shohei Iida, Po-Hsuan Hung1, Takehito Utsuro1, and Masaaki Nagata. Mixed multi-head selfattention for neural machine translation. Proceedings of the 3rd Workshop on Neural Generation and Translation. [6] Yekun Chai, Shuo Jin, and Xinwen Hou. Highway transformer: Self-gating enhanced self-attentive networks. $A C L$ 2020, 2020. [7] Shuhao GU and Yang FENG. Improving multi-head attention with capsule networks. NLPCC 2019, 2019. [8] Shohei Iida, Ryuichiro Kimura, and Hongyi Cui et.al. Attention over heads: A multi-hop attention for neural machine translation. ACL 2019, 2019. [9] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attention is not only a weight: Analyzing transformers with vector norms. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, p. 7057-7075, 2020. [10] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna. Rethinking the inception architecture for computer vision. pp. 2818-2826, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P7-9.pdf
# 同期注意制約を与えた依存構造に基づく Transformer NMT 出口祥之 ${ }^{1}$ 田村 晃裕 ${ }^{2}$ 二宮崇 ${ }^{1}$ 1 愛媛大学 2 同志社大学 ${ }^{1}$ \{deguchi@ai., ninomiya@\}cs.ehime-u.ac.jp ${ }^{2}$ aktamura@mail.doshisha.ac.jp ## 1 はじめに 近年,機械翻訳の分野において,Transformer ニューラル機械翻訳 (Neural Machine Translation; NMT)モデル(以下 Transformer NMT) [1]が従来の回帰型ニューラルネットワークや畳み込みニューラルネットワークベースモデルの翻訳性能を上回り,注目を浴びている。特に,Transformer NMT の特徴の一つである自己注意は注意重みと呼ばれる確率分布行列を計算することで文内における単語間の関連の強さを捉えることができ,ここに依存構造を組み込むことで翻訳性能をさらに改善するモデルも提案されている $[2,3,4]$. これまで,統計的機械翻訳では原言語文と目的言語文間の同期文法や同期依存文法を考慮することで翻訳性能を改善してきた $[5,6]$. 同期文法及び同期依存文法は,2 言語で定義される文法であり,2 言語の文構造を同時に生成する文法である。NMT では, この同期依存文法から着想を得た同期注意制約 [7] が提案されている. 同期注意制約では, Transformer NMT の原言語側の自己注意と目的言語側の自己注意の間で言語間注意を通した注意の整合性を保つように各注意が学習される。 しかし, Transformer NMT の自己注意の一部では依存構造を捉える場合があるという実験結果が報告されているものの [8], 同期注意制約を用いる従来手法は,自己注意と言語間注意の整合性を保証するだけであり,必ずしも依存構造を捉える自己注意が学習されるとは限らない。 そこで本稿では,原言語文と目的言語文の依存構造をそれぞれエンコーダとデコーダの自己注意で捉える Transformer NMT [2] に同期注意制約を組み込むことで,言語間で対応をもたせた依存構造に基づくNMTを提案する。また,従来の同期注意制約では制約を付与する際に別途注意の重みを計算する必要があったが,本稿では,モデルの順伝播時に得られる計算結果を利用することで注意の重みを別途 図 1: 依存構造とアライメント関係の例 求める必要のない手法を提案する. 図 1 は対訳文におけるアライメント及び各文の依存構造の例を表している。提案モデルでは, 図 1 において, “you” の親が “speak”であり,“you”が “du”に,“speak”が “Kannst” に対応している時,“du”の親が “Kannst”となるように学習する。 提案モデルと従来モデルの翻訳性能を BLEU [9] を用いた評価により比較したところ,WAT Asian Scientific Paper Excerpt Corpus(ASPEC)日英翻訳夕スクで最大 +0.36 ポイントの性能改善を確認した. ## 2 Transformer NMT Transformer NMT [1] は, 入力された原言語文 $X=\left(x_{1}, x_{2}, \ldots, x_{I}\right)$ を符号化する Transformer エンコーダ(以下エンコーダ)と,エンコーダの出力を受け取り目的言語文 $Y=\left(y_{1}, y_{2}, \ldots, y_{J}\right), \forall y_{j} \in \mathscr{V}$ に復号する Transformer デコーダ(以下デコーダ)を組み合わせたエンコーダ・デコーダモデルである. ただし, V は出力語彙集合である. エンコーダ及びデコーダはそれぞれ $N_{e n c}$ 層のエンコーダ層, $N_{d e c}$ 層のデコーダ層から成る. 各エンコーダ層及びデコーダ層は複数のサブレイヤから成り, 全てのサブレイヤの出力には残差接続と層正規化が適用される.エンコーダ層は下層より順に自己注意層,順伝播層から構成され,デコーダ層は下層より順に自己注意層,言語間注意層,順伝播層から構成される。 自己注意や言語間注意は, 複数ヘッド注意 $\operatorname{Attn}(Q, K, V)$ により, $d_{e m b}$ 次元の単語埋め込み空間から $H$ 個の $d_{k}\left(=\frac{d_{e m b}}{H}\right)$ 次元のヘッド(部分空間)に射影し,各へッドごとに次式のように注意を計算する。 $ \begin{aligned} & \operatorname{Attn}(Q, K, V)=\left[M_{1} ; M_{2} ; \ldots ; M_{H}\right] W^{M}, \\ & M_{h}=A_{h} V_{h}, A_{h}=\operatorname{softmax}_{\mathrm{r}}\left(\frac{Q_{h} K_{h}^{\top}}{\sqrt{d_{k}}}\right), \\ & Q_{h}=Q W_{h}^{Q}, K_{h}=K W_{h}^{K}, V_{h}=V W_{h}^{V} . \end{aligned} $ なお, softmax ${ }_{\mathrm{r}}()$ は行列に対して行毎に softmax 関数を適用する関数である. 複数へッド注意の入力 $Q$, $K, V$ は,それぞれパラメータ行列 $W_{h}^{Q}, W_{h}^{K}, W_{h}^{V} \in$ $\mathbb{R}^{d_{e m b} \times d_{k}}$ によって, $Q_{h}, K_{h}, V_{h}(1 \leq h \leq H)$ に射影される. ここで, 注意重み行列 $A_{h}$ の各要素の値は $Q$ の各単語と $K$ の各単語の間の関連の強さを示している。続いて,注意重み行列 $A_{h}$ に $V_{h}$ を掛けることで $Q_{h}$ に対応する表現を $V_{h}$ から荷重和の形で得られる. その後, 全ヘッドの $M_{h}$ (すなわち, $\left.M_{1}, M_{2}, \ldots, M_{H}\right)$ を結合し, パラメータ行列 $W^{M} \in \mathbb{R}^{d_{e m b} \times d_{e m b}}$ によって $d_{e m b}$ 次元の単語埋め込み空間に射影する。 なお,自己注意では,入力の $Q, K, V$ はいずれも前のサブレイヤの出力であり, 原言語文, 目的言語文それぞれにおいて文中の全ての単語との関連の強さを計算する. デコーダ側のみで用いられる言語間注意では, 入力 $Q$ は前のサブレイヤの出力, $K$, $V$ はどちらもエンコーダの最終層の出力であり, 目的言語文の各単語と原言語文との関連の強さを計算する. ただし,翻訳時に目的言語文の各単語は自己回帰的に生成されるため,デコーダ側の自己注意は各単語の後方の単語を指さないようマスクをかけて訓練する。 最後に,デコーダの最終層の出力を $|\mathscr{V}|$ 次元の空間に線形変換し, 各単語毎に softmax 関数を適用することで, 目的言語文の生成確率 $\operatorname{Pr}(Y \mid X)=\prod_{j=1}^{J} p\left(y_{j} \in \mathscr{V} \mid y_{<j}, X\right)$ を計算する. ## 3 提案手法 本稿で提案するモデルは,原言語側と目的言語側の自己注意でそれぞれの文の依存構造を捉え,それらを同期注意制約によって対応付ける. また,従来の同期注意制約の手法の問題点として,制約を付与する際に逆向きの言語間注意(原言語文から目的言語文への注意)を追加で計算する必 (b) 依存構造 図 2: 依存構造と DBSA の例 要があった. 本稿では Transformer NMT の順伝播計算時の注意重みを保持することで,追加の計算なしで逆向きの言語間注意を得る手法を提案する. 依存構造に基づいた自己注意はじめに,依存構造に基づいた自己注意 (dependency-based selfattention; DBSA) [2]について説明する. DBSAを用いた Transformer NMT(以下 Transformer+DBSA)は, モデルの翻訳の損失に加え, 以下のような依存構造解析の損失 $\mathscr{L}_{d e p}$ を制約として付与する. $ \begin{aligned} \mathscr{L}_{\text {dep }}= & -\sum_{i=1}^{I} \log \operatorname{Pr}\left(\operatorname{head}\left(x_{i}\right) \mid X\right) \\ & -\sum_{j=1}^{J} \log \operatorname{Pr}\left(\operatorname{head}\left(y_{j}\right) \mid Y\right) . \end{aligned} $ ただし, head() は引数に与えた単語の親を返す関数である. DBSA は,エンコーダまたはデコーダの第 $l_{d e p}$ 層目の自己注意において, 複数ヘッドのうち 1 つのへッドで依存構造を捉える。依存構造を捉えるヘッドの $Q_{h}, K_{h}, V_{h}$ をそれぞれ $Q_{d e p}, K_{d e p}, V_{d e p}$ とすると, 2 単語間の依存関係を示す注意重み行列 $A_{\text {dep }}$ は以下のようなパラメータ行列 $U \in \mathbb{R}^{d_{k} \times d_{k}}$ を用いたbi-affine 変換 [10] によって得られる. $ A_{d e p}=\operatorname{softmax}_{\mathrm{r}}\left(\frac{Q_{d e p} U K_{d e p}^{\top}}{\sqrt{d_{k}}}\right) . $ $A_{d e p}$ において, $A_{d e p}[t, q]$ は単語 $q$ が単語 $t$ の親である確率を示す. $ A_{d e p}[t, q]=\operatorname{Pr}(q=\operatorname{head}(t) \mid S) . $ ここで,S は原言語文または目的言語文である. ただし,親が ROOT となる単語 $t_{\text {ROOT }}$ は自身を指すように設定する $\left(\operatorname{head}\left(t_{\text {ROOT }}\right)=t_{\text {ROOT }}\right)$. 次に, $M_{\text {dep }}$ は依存関係に基づいた注意重み $A_{d e p}$ と $V_{d e p}$ を掛け合わせることで得られる. $ M_{\text {dep }}=A_{d e p} V_{\text {dep }} . $ 最後に, $M_{\text {dep }}$ を他のヘッドと結合し, 通常の自己注意と同様にして $d_{e m b}$ 次元の埋め込み空間に射影する。 $ \operatorname{Attn}^{\left(l_{d e p}\right)}=\left[M_{d e p} ; M_{1} ; \ldots ; M_{H-1}\right] W^{M} $ ここで, $\operatorname{Attn}^{\left(l_{\text {dep }}\right)}$ は第 $l_{\text {dep }}$ 層目の自己注意を表す. なお,デコーダ側の DBSA については,通常の自己注意と同様に後方の単語を指さないようマスクをかけて訓練し,親が後方に存在する単語に対しては制約を与えない. 図 2 に依存構造と注意重み行列 $A_{d e p}, A_{d e p}$ の教師データの例を示す. 図 2aでは,色の濃い要素ほど高い値を示している. DBSA は,現在 NMT で広く用いられているサブワード単位 $[11,12]$ にも拡張されている. ある単語が複数のサブワードに分割された場合,その単語を構成する各サブワードの親は隣接する後方のサブワードとし,単語の終端となるサブワードの親はその単語の親に設定する. また,親となる単語が複数のサブワードに分割されている場合,親は先頭のサブワードとする. 同期注意制約続いて,Transformer NMT で原言語文の文構造と目的言語文の文構造の対応を捉える同期注意制約 [7] について説明する. 同期注意制約を与えた Transformer NMT は翻訳の損失に加え,原言語側の自己注意で捉えた文構造と目的言語側の自己注意で捉えた文構造の整合性を保つための損失 $\mathscr{L}_{\text {sync }}$ を制約として付与する. $\mathscr{L}_{\text {sync }}$ は, 言語間注意によって,原言語側のエンコーダ自己注意を目的言語側の確率空間に変換し, デコーダ自己注意との差を計算することで得られる. 目的言語側の空間に変換されたエンコーダ自己注意を $D^{\text {pseudo }}$ とすると,以下の式によって $D^{\text {pseudo }}$ が求められる. $ D^{\text {pseudo }}=\vec{C} E \overleftarrow{C} $ ただし, $E$ と $D$ はそれぞれエンコーダ及びデコー ダの $l_{n}$ 層目の自己注意の注意重み行列 $A_{h}$ であり, $\vec{C} , \overleftarrow{C}$ はそれぞれ,以下のような式で求められる順方向(目的言語側から原言語側へ)の言語間注意と逆方向(原言語側から目的言語側へ)の言語間注意 である. $ \begin{aligned} \vec{C} & =\operatorname{softmax}_{\mathrm{r}}\left(\frac{Q_{h} K_{h}^{\top}}{\sqrt{d_{k}}}\right) \\ \overleftarrow{C} & =\operatorname{softmax}_{\mathrm{r}}\left(\frac{\left(Q_{h} K_{h}^{\top}\right)^{\top}}{\sqrt{d_{k}}}\right)=\operatorname{softmax}_{\mathrm{r}}\left(\frac{K_{h} Q_{h}^{\top}}{\sqrt{d_{k}}}\right) \end{aligned} $ なお, $Q_{h}$ と $K_{h}$ はデコーダの第 $l_{\text {sync }}$ 層の言語間注意の入力である.次に,デコーダ自己注意は各単語における後方の単語をマスクして訓練するため,同様に $D^{\text {pseudo }}$ に対しても後方の単語を指さないようマスクをかけて softmax 関数を適用する。 $ D^{\prime}=\operatorname{softmax}_{\mathrm{r}}\left(\operatorname{mask}\left(D^{\text {pseudo }}\right)\right) $ ただし, mask は各単語における後方の単語をマスクする関数である. 最後に, $D^{\prime}$ と $D$ の最小自乗誤差を計算することで $\mathscr{L}_{\text {sync }}$ を得る. $ \mathscr{L}_{\text {sync }}=\sum_{t, q}\left(D_{t, q}^{\prime}-D_{t, q}\right)^{2} . $ 図 3 に同期注意制約の例を示す. 図 3 に示すように,エンコーダ自己注意 $E$ は言語間注意 $\vec{C}, \overleftarrow{C}$ によって目的言語側の確率空間に変換される. 制約の損失はデコーダ自己注意 $D$ と求めた $D^{\prime}$ との差で表される. 提案モデル本稿で提案するモデルは Transformer+DBSA に同期注意制約を付与することで,原言語文の依存構造と目的言語文の依存構造の対応をもたせる. 提案モデルは次式のような目的関数 $\mathscr{L}$ を最小化することにより学習する。 $ \mathscr{L}=\mathscr{L}_{t}+\lambda_{\text {dep }} \mathscr{L}_{\text {dep }}+\lambda_{\text {sync }} \mathscr{L}_{\text {sync }} . $ なお, $\lambda_{\text {dep }}, \lambda_{\text {sync }}>0$ はそれぞれ損失関数において $\mathscr{L}_{\text {dep }}, \mathscr{L}_{\text {sync }}$ が影響する度合いを調整するハイパー パラメータである。ここで,同期注意制約に用いる原言語側と目的言語側の自己注意は第 $l_{d e p}$ 層目, すなわち,$l_{n}=l_{\text {dep }}$ とする. また,従来の同期注意制約では,式 11 のように, $\mathscr{L}_{\text {sync }}$ を求める際に逆向き言語間注意 $\overleftarrow{C}$ を計算する必要があった。本稿では,逆方向言語間注意を順方向言語間注意の転置,すなわち, $\overleftarrow{C}=\vec{C}^{\top}$ とすることで,Transformer のモデル順伝播計算時の注意重みを保持するだけで制約を算出できるようにする。 ## 4 実験 実験設定本実験では,提案手法の有効性を確認するため,提案手法を適用したモデルと従来モデルとの翻訳性能を比較する. Transformer モデルに 逆方向言語間注意: $\overleftarrow{C}$ 図 3: 同期注意制約の計算例 は base [1] モデルを使用した. モデルの詳細なハイパーパラメータは付録に記載した。 翻訳性能の評価実験は,ASPEC[13] 日英翻訳タスクを用いた。訓練データは上位 150 万を抽出して用いた。単語分割器は,日本語文には KyTea [14] を,英語文には Moses トークナイザを用いた。単語分割した後は訓練データから学習したバイトペア符号化 (Byte Pair Encoding; BPE)[11] によりサブワード分割を行い,BPE の語彙数は原言語側と目的言語側で独立してそれぞれ 16,000 に設定した.DBSA の教師データは依存構造解析器の出力結果を用い, 英語には Stanza [15] を,日本語には EDA [16] を使用した。 ただし,解析器は訓練時の教師データ作成のためのみに使用し,翻訳時には使用していない。その他,詳細なデータ前処理は付録に記載した。 目的関数の $\mathscr{L}_{t}$ はラベル平滑化交差エントロピー を用いた。各損失を考慮する度合いを調整するハイパーパラメータは $\lambda_{d e p}=0.5, \quad \lambda_{\text {sync }}=10.0$ とした.同期注意制約を与える層 $l_{\text {dep }}$ は Transformer base モデルの第 1 層目とし, $D^{\prime}$ を求める際に必要な言語間注意の層 $l_{\text {sync }}$ は第 5 層目とした. モデルのパラメータ更新回数は 100,000 回とした. 翻訳文の生成にはビーム探索を用い,ビーム幅は 4 とした. 実験結果実験結果を表 1 に示す。表中の SyncAttn は同期注意制約を表す.表より,DBSA と SyncAttn を組み合わせることで,従来の DBSA,表 1: 実験結果 (BLEU(\%)) SyncAttn 単体で用いたモデルよりそれぞれ +0.27 , $+0.36 \mathrm{BLEU}(\%)$ の性能改善を確認した. ## 5 おわりに 本稿では,Transformer NMT の自己注意において,原言語文と目的言語文の依存構造を捉えさせ,言語間でそれらの対応をもたせるモデルを提案した. また,従来の対応付けでは注意の重みを別途計算する必要があったが,提案手法では順伝播時の計算結果を保持しておくだけで制約が計算できる. 提案モデルを用いることで,ASPEC 日英翻訳タスクにおいて, 従来モデルよりも最大 $+0.36 \mathrm{BLEU}(\%)$ の性能改善が確認された. 今後は, 他の言語対についても提案手法の有効性を確認したい. ## 謝辞 本研究成果は, 国立研究開発法人情報通信研究機構の委託研究により得られたものである. また,本研究の一部は JSPS 科研費 20K19864 の助成を受けたものである.ここに謝意を表する. ## 参考文献 [1]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30, pp. 5998-6008. 2017. [2]Hiroyuki Deguchi, Akihiro Tamura, and Takashi Ninomiya. Dependency-based self-attention for transformer NMT. In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 239-246, Varna, Bulgaria, September 2019. INCOMA Ltd. [3]Xing Wang, Zhaopeng Tu, Longyue Wang, and Shuming Shi. Self-attention with structural position representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP$I J C N L P)$, pp. 1403-1409, Hong Kong, China, November 2019. Association for Computational Linguistics. [4]Emanuele Bugliarello and Naoaki Okazaki. Enhancing machine translation with dependency-aware self-attention. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1618-1627, Online, July 2020. Association for Computational Linguistics. [5]Hongfei Jiang, Muyun Yang, Tiejun Zhao, Sheng Li, and Bo Wang. A statistical machine translation model based on a synthetic synchronous grammar. In Proceedings of the ACL-IJCNLP 2009 Conference Short Papers, pp. 125-128, Suntec, Singapore, August 2009. Association for Computational Linguistics. [6]Yuan Ding and Martha Palmer. Machine translation using probabilistic synchronous dependency insertion grammars. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pp. 541-548, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [7]出口祥之, 田村晃裕, 二宮崇. 同期注意制約を与えた transformerによるニューラル機械翻訳. 言語処理学会第 26 回年次大会発表論文集, pp. 1459-1462, 2020. [8]Elena Voita, David Talbot, Fedor Moiseev, Rico Sennrich, and Ivan Titov. Analyzing multi-head self-attention: Specialized heads do the heavy lifting, the rest can be pruned. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5797-5808, Florence, Italy, July 2019. Association for Computational Linguistics. [9]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [10]Timothy Dozat and Christopher D. Manning. Deep biaffine attention for neural dependency parsing. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings, 2017. [11]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [12]Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [13]Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 22042208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [14]Graham Neubig and Shinsuke Mori. Word-based partial annotation for efficient corpus construction. In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010. European Language Resources Association (ELRA). [15]Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. Association for Computational Linguistics. [16]Daniel Flannery, Yusuke Miayo, Graham Neubig, and Shinsuke Mori. Training dependency parsers from partially annotated corpora. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 776-784, Chiang Mai, Thailand, November 2011. Asian Federation of Natural Language Processing. [17]Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Łukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. CoRR, Vol. abs/1609.08144, , 2016. ## A データセット 表 2: 実験データ(ASPEC 日英)の対訳文対数 前処理英語文の単語分割は,aggressive hyphen splitting オプションを付けた Moses トークナイザを使用した。また,訓練データに対しては 規化を行った. 訓練データには,サブワード分割する前の原言語文と目的言語文のトークン数がともに 100 以下の対訳文対を用い,トークン数の比が 2 を超える対訳文対を除外した. ## B ハイパーパラメータ 表 3: Transformer モデルのハイパーパラメータ ^{1)}$ https://github.com/moses-smt/mosesdecoder/blob/ master/scripts/tokenizer/normalize-punctuation. perl }
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-10.pdf
# A Span Extraction Approach for Dialog State Tracking: A Case Study in Hotel Booking Application Hongjie Shi Megagon Labs, Tokyo, Japan, Recruit Co., Ltd. shi.hongjie@megagon.ai ## 1 Introduction Traditional dialog state tracking is often formulated as a classification problem, where the dialog state is predicted as a distribution over a closed set of possible slot values within an ontology [1]. By doing so, the tracked dialog state which is a summary of current conversation, can be directly used for backend database querying or API calls in dialog system applications [2]. For example, a virtual assistant that helps users to book hotels, may fill a slot price_range with three possible values - high / low / intermediate defined by the query parameters of the backend hotel database. However, this classification approach of dialog state tracking may have two main disadvantages. First, the system will not be able to handle any unseen values beyond the predefined value set. While building a classifier that covers all possible values will result in impractical annotation and training cost. Second, we see that many modern designed databases [3] and search engine API can take direct natural language input as the search query. A predefined value set will limit the user query space and cause the matched results lack of variety. To overcome these limitations, in this paper we explore the possibility of a span-extraction approach for the dialog state tracking, where the values are no longer constrained in a predefined set, but can be any string form as appeared in the dialog. The application of this approach is illustrated in Figure 1. We formulated our task as a multiclass multi-span extraction problem, with a goal to identify all contiguous spans along with its slot type from current user utterance. In this paper, we performed a particular case study on hotel booking domain, and set up 12 slot types that cover most common hotel requirement categories. In our system, the extracted spans (or the slot values) are then used as input search queries for different backend systems. The contribution of this paper is to initiate a new case study on this span-extraction dialog state tracking, and propose a simple BERT based approach for multi-slot multi-span extraction. Figure 1: An example of span-extraction based dialog state tracking for hotel booking dialog system. ## 2 Related work Free-form dialog state tracking Considering the limitation of traditional predefined slot values setup, freeform dialog state tracking that allow slots to be filled with any string value, have emerged in recent years. In one task track of DSTC 8 [2], the authors set up a problem to fill slots like depart_date with any string value derived from conversation. Others like [4] proposed to use dynamic vocabularies to track possible values beyond the predefined set. However these problems or approaches are still limited in narrow ranges of slot value form, for example the value is usually either a specific named entity (movie name, restaurant name), or in a very specific format (date, time). In contrast, our problem considers a more wide range of possible value forms and span lengths, including adjectives, verbs, short phrases or even sentences. Span extraction based approach The span extraction based approaches for dialog state tracking tasks have also been proposed recently. In the paper [1] the authors utilized a question answering (QA) model to predict slot value by directly pointing to the value span within the conversation. However the conventional QA model they used can not be directly applied to our multi-span extraction task, because the model output is restricted to a single answer span. On the other hand, multi-span QA models that capture multiple answer spans have also been proposed recently. In the paper [5] the author applied a sentence selection approach to identify all sentence-level spans, and in another paper [6] the authors casted the multi-span task as a sequence tagging problem. Our method resembles the latter approach, and we further extend the model with multi-label classification, as to extract spans for different slot types at the same time. ## 3 Dataset The dialog corpus (Japanese) we used in this paper are the same corpus as our previous paper [7]. The data are collected between pairs of crowd workers who played travel agent and user roles respectively. The data contains 879 dialogs with 24963 agent and 11792 user utterances in total. Annotation The span annotations are done for each user utterance in three steps: 1. Identify all span ranges for each user utterance. 2. Label each continuous span with one of the 12 slot types. 3. Label each span with Negation flag if the span represents a negation. The length of span is determined so that each span has minimal string length that can be used as an independent hotel search query. The 12 slot types represent the common categories of the user requirement for the hotels, as shown in the y-axis label in Figure 2. Count of annotated spans for each slot type ## Figure 2: Distribution of annotated spans over 12 slot types. Negation flag The Negation flag is used for a negative match in the database and it can be overlapped with any other of the 12 slot types. For example in the following utterance: I don't like a room that is too cluttered. あまりごみごみした部屋は好みではありません。 The span "too cluttered" is labeled with the slot type Room and the Negation flag simultaneously. In this paper we treat the Negation flag as one of the class along with 12 slot types, so that our problem can be framed as a multilabel classification. Span statistics There are 12244 spans (including Negation) annotated among 6898 user utterances with average 1.8 spans for each utterance. The average span length is 5.3 characters with the shortest contains 1 and the longest contains 43 characters. The slot distribution of spans is shown in Figure 2. ## 4 Experiments ## 4.1 Models The BERT based pre-training fine-tuning approach has achieved great success in almost all types of natural language processing tasks. In our experiment we also chose BERT as our start point. We incorporated BERT with a token classification head on top (a linear layer on top of the hidden states output), so that the model outputs a series of token-wise labels. This BERT architecture is also used for other sequence labeling tasks such as Named-Entity-Recognition [8]. One modification we have done to the model is that we replace the output softmax to the binary sigmoid, so that each token can be associated with any number of labels. By doing so, we can train the Negation as one class along with the 12 slot types, and also do not need to add a dummy 'Outside/None' class for any non-span tokens. Pre-training We compared two pre-trained BERT in our experiment. The first model is the one published in paper [9], which is pre-trained with Japanese wikipedia containing 18 million sentences. We call this model the general model. The second one is an in-domain model pretrained with 20 million sentences of hotel reviews extracted from hotel booking site jalan.net. The pretraining details are described in paper [10]. Both models have $32 \mathrm{k}$ vocabulary built with Juman $++^{\mathrm{i}}$ as the Japanese tokenizer and BPE as the subwork tokenizer. And both use 12 layers configuration as the original BERT-base configuration. ## 4.2 Experimental Setup We split all user utterances into the training, validation and test dataset with portions of $70 \%, 15 \%$ and $15 \%$ respectively, where the training set contains 8254 user utterances and the valid / test set contains 1769 user utterances. The validation dataset is used for tuning the learning rate during training: the initial learning rate is set 0.00005 and if the loss for the validation dataset increased compared to the previous epoch, the learning rate is decayed by a rate of 0.7 . The total training epochs is 7 and batch size is 32. For the model implementation, we use the transformers package from Hugging Face ${ }^{\mathrm{ii}}$. We also apply the binary sigmoid instead of softmax in the output layer for multi-label output, and correspondingly modify the loss function to binary cross entropy. Metrics The F-score used for evaluation is calculated token-wisely as following: If we represent the spans in a $n$-token sentence using a vector $\boldsymbol{y}=\left(y_{1}, y_{2}, \ldots, y_{n}\right)$, where $y_{k}$ is a binary digit with value of 1 if the $k$-th token is in the span, 0 otherwise. Then the F1 score is  derived from harmonic mean of precision and recall as: $ \text { Precision }=\frac{\boldsymbol{y} \cdot \widehat{\boldsymbol{y}}}{\sum_{k=1}^{n} \hat{y}_{k}}, \text { Recall }=\frac{\boldsymbol{y} \cdot \widehat{\boldsymbol{y}}}{\sum_{k=1}^{n} y_{k}} $ where $\boldsymbol{y}$ is the true label and $\hat{\boldsymbol{y}}$ is the output of the model. To reduce the impact of the class imbalance, in evaluation we use the global average over all samples ignoring slot types (also known as micro-averaged F1). ## 5 Results One clear conclusion from the result shown in Table 1 is that the in-domain BERT model outperforms the general model as large as almost $10 \%$, and this improvement is most significant in Recall. If we look at the detail score for each slot type (Figure 3), a trend can be noticed is that the slot types with less training data, the more performance improvement is gained. This is not a surprising result because intuitively in-domain pretraining can help downstream fine tuning tasks with prior in-domain knowledge, and this effect is more dominant when the number of training instances is limited. This is also a general observation reported in many other tasks such as [11] and [12]. One complete example of dialog with its model output can be found in Appendix Table 3. Table 1: Overview of performance comparison ## 5.1 Error Analysis In Table 2 we listed some typical error outputs from both models. From these examples, we can see that the indomain model is relatively better at capturing unseen domain-specific named entity (example \#1) and identifying indirect expression of negation (example \#2). On the other hand the error output tends to be overlong (example \#3) or with wrong slot types (example \#4). One possible reason is that the likely overfitting to the domain may cause the model too sensitive to certain phrases. And also, the ambiguous interpretation of slot types may cause  Figure 3: Comparison of accuracy for each slot type and Negation. Model details are described in Sect 4.1. Table 2: Examples of error outputs (errors shown as red underlined). & Food: & \\ a fluctuation in the annotation, such as the word "place" in example \#4 can be both interpreted as hotel and location. However for using as a search query, these errors seem to be minor because the impact on the search result will be limited. Example \#5 exposes one limitation of our method, that is we do not include any dialog context in the model input. In this example, the user utterance is actually a response to the agent question "Where are you planning to come from?", and therefore should not be interpreted as the location of the hotel. One way to take the dialog context into account is to concatenate previous utterances to the input with additional segment embedding [8]. We include this improvement in our future work. ## 6 Conclusion In this paper we studied a new span-extraction based dialog state tracking task, and proposed a BERT-based approach for multi-slot multi-span extraction. The proposed method allows a slot to take any form of value as it is mentioned within the conversation, and therefore provides a more dynamic dialog state for querying the backend systems. While in this paper we only focused on the extraction from current user utterance, we plan to expand the model to multiple turns, including reference resolution and slot value update, with a better integration of dialog context. ## Acknowledgements We would like to thank Prof. Yuki Arase, Mai Aoki (IRALT) and other Megagon team members for their useful discussions and feedback. ## References [1] Shuyang Gao, et al., "Dialog State Tracking: A Neural Reading Comprehension Approach," Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue, 2019. [2] Abhinav Rastogi, et al., "Towards scalable multidomain conversational agents: The schema-guided dialogue dataset," Proceedings of the AAAI Conference on Artificial Intelligence. Vol. 34. No. 05, 2020. [3] Yuliang Li, et al., "Subjective Databases," Proceedings of the VLDB Endowment, 12(11), 2019. [4] Rahul Goel, et al., "Hyst: A hybrid approach for flexible and accurate dialogue state tracking," Proc. Interspeech 2019, pp. 1458-1462, 2019. [5] Ming Zhu, et al., "Question Answering with Long Multiple-Span Answers," Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: Findings, 2020. [6] Elad Segal, et al., "A Simple and Effective Model for Answering Multi-span Questions," arXiv preprint arXiv:1909.13375, 2019. [7] Hongjie Shi, "A Sequence-to-sequence Approach for Numerical Slot-filling Dialog Systems," Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, 2020. [8] Jacob Devlin, et al., "Bert: Pre-training of deep bidirectional transformers for language understanding," arXiv preprint arXiv:1810.04805, 2018 . [9] 柴田知秀, 河原大輔, and 黒橋禎夫, "BERT による日本語構文解析の精度向上," 言語処理学会第25 回年次大会発表論女集, 2019. [10] 林部祐太, "知識の整理のための根拠付き自然文間含意関係コーパスの構築," 言語処理学会第 26 回年次大会発表論文集, 2020. [11] Takeshi Sakaki, et al., "BERT Pre-trained model Trained on Large-scale Japanese Social Media Corpus," https://github.com/hottolink/hottoSNSbert, 2019. [12] Chi Sun, et al., "How to fine-tune bert for text classification?," China National Conference on Chinese Computational Linguistics. Springer, Cham, 2019. [13] 林部祐太, "要約付き宿検索対話コーパス," 言語処理学会第 27 回年次大会発表論文集, 2021. ## Appendix Table 3: An example of complete dialog and its corresponding model output. Here we are using the dialog collected in [13]. The slot values appeared in Agent utterances are not extracted by current model (future work). & \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-11.pdf
# 動的な環境における基盤化タスク設計の試み 宇田川拓真 ${ }^{1}$ 相澤彰子 ${ }^{1,2}$ 1 東京大学 2 国立情報学研究所 \{takuma_udagawa, aizawa\}@nii.ac.jp ## 1 はじめに 自然言語対話における基盤化とは, 話者間で共通理解(共通基盤)を形成・修正・維持する一連のプロセスを指し, 人間の高度なコミュニケーションの重要な側面と考えられている [3]. 特に状況が絶えず変化する現実世界においては, 新たに共通基盤を形成するだけでなく, 状況の変化に応じて共通基盤を適切に更新し, 維持する能力が欠かせない. しかし, 既存の対話タスクの多くは画像などの静的な情報を扱うものに限られており,動的な環境における共通基盤の形成・維持が十分に考慮されていない. 本研究では, 既存の基盤化タスク (OneCommon コーパス)[10]を時系列的に拡張し, 動的な環境における基盤化を評価する新たなタスク設計を行う。 このタスク設計に基づき,クラウドソーシングを用いて 5,617 対話を含む大規模なデータセットを新たに構築した. データセットの分析の結果, 提案タスクでは複雑な時空間表現を用いた基盤化が必要であること,また人間同士では過去の時点での共通基盤を利用してより正確かつ効率的に共通基盤の更新・維持ができていることが確認された。 最後に, 深層学習に基づく対話モデルを実装し, 提案タスクによる評価・分析を行った. その結果, 既存モデルは色・大きさ・位置などの空間的情報は(比較的)利用できているが, 動作・時制などの時間的情報はまだうまく扱えていないことが示唆された. 以上の考察を通じて提案タスクの有用性を検証し, 今後の課題について論ずる. ## 2 タスク設計 ## 2.1 背景:協調的参照タスク 基盤化の能力を定量的・客観的に評価するために, OneCommon [10] では物体の共通認識を形成する協調的参照タスクを提案している。このタスクでは話者 $\mathrm{A}$ ・ $\mathrm{B}$ とエンティティの集合 $E=\left.\{e_{1}, e_{2}, \ldots, e_{m}\right.\}$ が存在し, 話者はそれぞれ $E$ の観測 $o b s_{A}(E) \cdot o b s_{B}(E)$ を持つとする. 話者同士は自然言語対話を通じて自由に情報を交換することができ, 最終的にそれぞれ観測中のエンティティを一つ選択する. 基盤化を通じて同じエンティティを選択できた場合のみタスクは成功とし, 異なるエンティティを選択した場合は失敗となる. 付録 $\mathrm{A}$ に実際の対話例を示す. OneCommon ではさらに各エンティティ $e_{i} \in E$ の属性を連続値で表現することで複雑な曖昧性・不確実性の解消を要請している.また, 話者同士の観測が異なる部分観測性 $\left(o b s_{A}(E) \neq o b s_{B}(E)\right)$ を導入することで誤解・部分的な理解が生じやすくなっており, 理解の修正が要請されている. しかし,このタスクでは話者の観測およびエンティティ属性の時間変化は想定されておらず,多様な状況変化に応じた共通基盤の更新・維持は要請されない. また, 共通基盤の維持能力の定量的 - 客観的な評価指標が存在しないという問題がある. ## 2.2 協調的参照タスクの時系列的拡張 これらの問題を解決するために, 本研究では各エンティティ $e_{i} \in E$ の属性が時間変化し, 各時刻 $t \in\left[t_{0}, \infty\right)$ において話者 $\mathrm{A} \cdot \mathrm{B}$ は $E$ の観測 $o b s_{A}(E, t) \cdot$ $o b s_{B}(E, t)$ を持つとする. また, 話者同士は複数の時刻 $t_{1}, t_{2}, \ldots \in\left(t_{0}, \infty\right)$ において協調的参照を行い, 時刻 $t_{k}(k \in \mathbb{N})$ において失敗した時点でタスクは終了するものとする.これにより, 共通基盤を正確に維持する能力を協調的参照の成功時間長 $k-1$ により定量的・客観的に評価できるようになる。 本研究ではこの定式化に基づいて OneCommon を時系列的に拡張する. 具体的には, 各エンティティ $e_{i} \in E$ の二次元平面上の位置を各時刻間 $\left[t_{k-1}, t_{k}\right)$ で変化(移動)させる. 移動の軌跡は図 2 に示すように二次べジェ曲線で記述し, 距離パラメーター $r_{i, 1}$, $r_{i, 2}$ および角度パラメーター $\Delta \theta_{i}$ は一様分布からサ B: I see a small light grey dot, that moves very quickly. It ends to the right of three larger, darker dots. A: $i$ think that one moves off my view. do you have two medium sized dark dots on top of one another at the start, with the upper one being a bit smaller and off to the left? they both move down and to the right B: Yes, I think so. But the one that started off on the left moves very slowly? And another lighter grey one ends up almost in between them? A: yes can you pick the slower moving one? A and B select: $\square$ A: do you still see the same one? B: Nope, it barely squeaked out of view. But a larger black ball comes towards the left into view. Do you see it? It probably crosses underneath our old one. A: yes A and B select: 図 1 提案タスクの対話例. エンティティは時刻 $t_{1} \cdot t_{2}$ での位置, 軌跡は $\left[t_{0}, t_{1}\right) \cdot\left[t_{1}, t_{2}\right)$ での移動を示している. ンプリングする. また, $\theta_{i, 0}$ はランダムに初期化し, 移動後に $\theta_{i, k} \leftarrow \theta_{i, k-1}+\Delta \theta_{i}$ に基づいて更新する.これによって多様かつ一貫性のある動的変化を導入できるだけでなく,テスト時には任意の状況・観測の変化を再現し, 検証することが可能になる。 図 2 エンティティ $e_{i}$ の $\left[t_{k-1}, t_{k}\right)$ 間の移動の軌跡. また, エンティティの属性だけでなく話者の視点も随意に変化させることができる. 本研究では各時刻 $t_{k}$ の直後に話者の視点をランダムに平行移動させることで, 観測の重複部分も変化させている. 図 1 にクラウドソーシングを用いて収集した提案タスクの対話例を示す. なお, 対話収集時は時刻の上限を $t_{5}$ (最大の成功時間長を 5)としている. ## 2.3 関連研究との比較 提案タスクと既存の代表的な対話タスク(データセット)との比較を表 1 にまとめる。 まず, 基盤化に焦点を当てた対話タスクとして $[4,6,10,5,13]$ などが挙げられる.これらはタスク成功率により共通基盤の形成能力を直接的に評価できるが, 全て静的な情報を扱うものに限られている. 基盤化を直接評価・分析するには不向きだが, 動的な情報を扱う対話タスクも近年現れている. 例えば AVSD[1] は動画に基づく対話を集めているが,対話中に新たな情報が追加されるなどの情報の更新がないため, 共通基盤の更新は要請されない. 逆に Minecraft Dialog[8], SIMMC [7] などの仮想空間上の対話タスクでは(視点変化などを通じて)情報の更新は行われるが, 仮想空間自体は自発的に変化せず静的なものと考えられている. [9] は唯一動的な環境および情報の更新を扱っているが, 非タスク指向かつ不特定話者の対話であるため, 基盤化の評価・分析は非常に難しいと考えられる。 ## 3 データセット 本研究では Amazon Mechanical Turkを利用し, 大規模かつ高品質な英語の対話データを収集した. 表 1 既存の代表的なデータセットとの比較. ## 3.1 定量的分析 データセット全体の統計値を表 2 に示す. OneCommon と比較すると, 提案タスクでは協調的参照を複数回繰り返しているため対話中の発話数が多くなっており,より長く一貫した対話が必要となっている. 平均的な発話長は若干短くなっているが,これは $t_{2}$ 以降に複雑な表現が “same again?” などのように省略されやすいからであり1), 図1のように長く複雑な発話も多数見受けられた. また, OneCommon を拡張した設定であるため, 語彙的にはシンプルかつ重複が多いことが確認できた. ${ }^{2)}$ 時刻 $t_{1}$ での協調的参照の成功率も高く, 人間同士では正確に共通理解を形成できていることが分かる.また, 時刻 $t_{2}$ 以降ではそれ以前の共通基盤を利用して,成功率をさらに高めることができている.3) ## 3.2 定性的分析 図 1 に例示されるように, 人間同士ではエンティティの動作 ( “moves very quickly”, "come towards the 1)例えば 5 トークン以下の短い発話の割合は提案タスクで $33.8 \%$ となっており, OneCommon の約二倍多くなっている。 2)頻出語(10 回以上出現する語彙)に限ると, 重複は $53.0 \%$ とさらに高くなっている. 3)一部のクラウドワーカーはより高い水準でタスクを解いており,成功時間長・成功率の上限はより高くなると思われる。 left") や特定の時点での位置 (“started off on the left”, “ends to the right”) などの時空間表現を用いて共通基盤を形成している.また, 時刻 $t_{2}$ 以降ではそれ以前の共通基盤 ("still see the same one?”, “crosses underneath our old one”)を利用していることが確認できる.さらに環境の連続性および部分観測性により “a bit”, “almost”, “probably”など曖昧性・不確実性のニュアンスが伴いやすいことも確認できる. 特に動作の表現に着目すると, 移動の軌跡が連続値で記述されているため(図 2)語用論的推論を要する表現が現れやすくなっている. 例えば図 3 に示すように “straight down” と言った時に正確な垂直を指していなかったり,多様な移動の軌跡が “right (and) then up”と同一の表現で表されていたりする. また, 付録 Bに示すように複数のエンティティの動作の関係性も同様に(語用論的に)表現されている. このように提案タスクでは必要な語彙はシンプルでありながら, 字義通りではなく語用論的推論を用いた高度な言語理解・生成が必要となっている。 straight down right (and) then up図 3 語用論的な動作の表現. ## 4 実験 最後に,ベースラインモデルを用いた実験を行う. 表 3 実験結果.(データ分割含め)異なる乱数種を用いて各実験を 5 回繰り返した. } & $76.4 \pm 1.7$ & $77.1 \pm 0.3$ & $62.5 \pm 1.7$ & $75.4 \pm 1.3$ & $1.94 \pm 0.09$ \\ ## 4.1 評価 モデルの共通基盤の認識能力の評価には, 人間同士の対話・観測からどのエンティティが各時刻 $t_{k}$ で選択されたかを予測するターゲット選択タスクを用いる. 選択時の観測エンティティの数は 7 つに制約されているため,これは単純な分類問題として正解率で評価できる. 検証・テスト用データには成功時間長が 2 以上のランダムな対話を 500 ずつ用意する. また, 各モデル同士で提案タスク全体を解かせることで共通基盤の形成・維持能力を評価する. 具体的には 2,000 の未知の環境で同じモデル同士を対話させ,成功率・成功時間長によって評価を行う。 ## 4.2 モデル 本研究では [11]を基にシンプルな深層学習対話モデルを実装する. 具体的には対話トークンを GRU[2] で埋め込み, 観測をエンティティレベルの埋め込み表現に変換する(付録 C). 発話生成時にはエンティティの表現をアテンションスコアで重み付けし, 時刻 $t_{k}$ でのエンティティの選択にはスコアが最大のものを選択する. また, 各モジュールは OneCommon コーパスを用いて事前学習を行なった.4) このモデルをべースラインとして, どの素性が利用されているかを確認するために, エンティティの表現から色・大きさ・位置属性のアブレーションを行う. また, 観測の最終フレームのみを入力とすることで時間変化の情報のアブレーションも行う. ## 4.3 結果 実験結果を表 3 に示す.なお,ターゲット選択の人間性能は 3 名のアノテーターで確認を行なった. まず, ターゲット選択ではベースラインの正解率は比較的高く, 既存モデルはある程度対話中の共通基盤を正しく認識できていると考えられる. また, ア  ブレーションの結果からエンティティの色・大きさ・位置・時間変化全てが正解率に寄与していることが分かる.なお, 時刻 $t_{k}(k \geq 2)$ での選択を予測する際には前時刻 $t_{k-1}$ での選択の正解を入力としているため, $t_{2}$ 以降の正解率は若干高くなっている.5) 全体タスクでは $t_{1}$ での成功率が最も低く, 動的な環境で共通基盤を新たに形成するのは難しいと考えられる. $t_{2}$ 以降の成功率は比較的高くなっているが,実際には前時刻での選択を繰り返してしまうケースが多く, 前時刻の選択エンティティが共有されなくなった場合の成功率に大きな向上は見られなかった. ${ }^{6 )}$ よって, 共通基盤をそのまま保持することはできるが変更することはまだ難しいと予想される. また, 時間変化の情報を利用しない場合に成功率は一貫して向上しており, 既存モデルは動的な情報を利用して基盤化を行えていないことが示唆された。 最後に, 全ての評価指標において人間の性能とは大きな乘離があり, 提案タスクが改善の余地のある難しいタスクであることが示された. ## 5 終わりに 本研究では動的な環境において物体の共通認識を維持する新たな対話タスクを設計し, 人間とベースラインモデルの基盤化の評価・分析を行なった. 将来的に対話システムの応用範囲が広がりより実世界に近い問題を扱うようになるほど, 状況の変化に応じて共通基盤を適切に更新・維持できることは重大な要件になると考えられる. 今後は参照表現 [11] や時空間表現 [12] のアノテーションなどを通じてより詳細な分析を可能にしつつ, 動画処理の手法も組み合わせてより汎用性の高い対話モデルの分析・改善を行う.これらの研究を通じて, 基盤化の観点からより高度な対話モデルを追究していきたい。 5)人間のアノテーターには前時刻での正解は与えていない 6)むしろベースライン以外では成功率が下がっていた. なお,人間同士ではこの状況でも $6 \%$ 以上の成功率向上が見られた. ## 参考文献 [1]Huda Alamri, Vincent Cartillier, Abhishek Das, Jue Wang, Anoop Cherian, Irfan Essa, Dhruv Batra, Tim K Marks, Chiori Hori, Peter Anderson, et al. 2019. Audio visual sceneaware dialog. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 7558-7567. [2]Kyunghyun Cho, Bart van Merrienboer, Dzmitry Bahdanau, and Yoshua Bengio. 2014. On the properties of neural machine translation: Encoder-decoder approaches. In Proceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, pages 103-111. Association for Computational Linguistics. [3]Herbert H Clark. 1996. Using language. Cambridge university press. [4]Harm De Vries, Florian Strub, Sarath Chandar, Olivier Pietquin, Hugo Larochelle, and Aaron Courville. 2017. Guesswhat?! visual object discovery through multi-modal dialogue. In Proc. of CVPR. [5]Rui Fang, Malcolm Doering, and Joyce Y. Chai. 2015. Embodied collaborative referring expression generation in situated human-robot interaction. In Proceedings of the Tenth Annual ACM/IEEE International Conference on Human-Robot Interaction, HRI '15, pages 271-278, New York, NY, USA. ACM. [6]Janosch Haber, Tim Baumgärtner, Ece Takmaz, Lieke Gelderloos, Elia Bruni, and Raquel Fernández. 2019. The PhotoBook dataset: Building common ground through visually-grounded dialogue. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1895-1910, Florence, Italy. Association for Computational Linguistics. [7]Seungwhan Moon, Satwik Kottur, Paul Crook, Ankita De, Shivani Poddar, Theodore Levin, David Whitney, Daniel Difranco, Ahmad Beirami, Eunjoon Cho, Rajen Subba, and Alborz Geramifard. 2020. Situated and interactive multimodal conversations. In Proceedings of the 28th International Conference on Computational Linguistics, pages 1103-1121, Barcelona, Spain (Online). International Committee on Computational Linguistics. [8]Anjali Narayan-Chen, Prashant Jayannavar, and Julia Hockenmaier. 2019. Collaborative dialogue in Minecraft. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 5405-5415, Florence, Italy. Association for Computational Linguistics. [9]Ramakanth Pasunuru and Mohit Bansal. 2018. Game-based video-context dialogue. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 125-136, Brussels, Belgium. Association for Computational Linguistics. [10]Takuma Udagawa and Akiko Aizawa. 2019. A natural language corpus of common grounding under continuous and partially-observable context. In Proceedings of the AAAI Conference on Artificial Intelligence, volume 33, pages 71207127. [11]Takuma Udagawa and Akiko Aizawa. 2020. An annotated corpus of reference resolution for interpreting common grounding. In Proceedings of the AAAI Conference on Arti- ficial Intelligence, volume 34, pages 9081-9089. [12]Takuma Udagawa, Takato Yamazaki, and Akiko Aizawa. 2020. A linguistic analysis of visually grounded dialogues based on spatial expressions. In Findings of the Association for Computational Linguistics: EMNLP 2020, pages 750765, Online. Association for Computational Linguistics. [13]Sina Zarrieß, Julian Hough, Casey Kennington, Ramesh Manuvinakurike, David DeVault, Raquel Fernández, and David Schlangen. 2016. PentoRef: A corpus of spoken references in task-oriented dialogues. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pages 125-131, Portorož, Slovenia. European Language Resources Association (ELRA). ## A OneCommon コーパス A: I see three in a line going up and to the right. The middle one is the largest and darkest B: I don't see that. I have one large, medium gray dot that's under a small, darker gray dot A: Is the larger dot slightly to the left B: yes, slightly, let's choose the larger one A and B select: $\square$ 図 4 OneCommonコーパスの対話例 図 4 に示すように, OneCommon ではエンティティおよび話者 $\mathrm{A} \cdot \mathrm{B}$ は二次元平面上に位置しており, $\mathrm{A} \cdot \mathrm{B}$ はそれぞれ自分の周囲の一定の半径以内のエンティティのみ観測できる.この状況で, 自然言語対話による基盤化を通じて同一の・共有されているエンティティを一つ選択しなければならない. ## B複数エンティティの動作 toward each other cross in front follow (behind)図 5 複数エンティティの動作の表現. エンティティの動作はランダムに生成している ため, 話者はそれらのインタラクション(相互作用) を特徴的な時空間関係に見立てて表現していると考えられる.よって, 図 5 の他にも pass by, move along withのように多様かつ語用論的な複数エンティティの動作表現が多数見受けられた. ## C エンティティの埋め込み表現 図 6 エンティティの埋め込み表現の生成手法. 時刻間 $\left[t_{k-1}, t_{k}\right)$ の観測アニメーションからエンティティの埋め込み表現を得る手法を図 6 に示す. まず, 各時刻での観測フレームから空間的エンコーダーを用いて空間的素性とメタ素性の二つを生成する. 空間的素性は [11] と同様にその時刻でのエンティティの属性(色・大きさ・位置)等を多層パーセプトロン(MLP)で埋め込む. なお, フレーム中に存在しない場合はデフォルトの值 $(0,0)$ を観測上の位置とする. メタ素性はエンティティのメタ情報(フレーム中に存在するか, 前時刻 $t_{k-1}$ に存在したか, 前時刻 $t_{k-1}$ で選択したか等)を二值トークンとして表現し, MLPを用いて埋め込み表現に変換する. 各時刻(観測フレーム)でのエンティティの表現は空間的素性とメタ素性の和とする. 続いて, 各観測フレームにおけるエンティティ表現を時間的エンコーダー(GRU)で埋め込み, 最終時刻での状態をエンティティの最終表現とする.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-12.pdf
# 積極傾聴におけるあいづちのタイミングの予測 福野将人狩野芳伸 静岡大学総合科学技術研究科情報学専攻 mfukuno@kabolab.net kano@inf.shizuoka.ac.jp ## 1 はじめに ユーザと対話することを目的としたシステムを対話システムといい、その中でもユーザの話に適切にあいづちを打つなどして話を聞くことに特化した対話システムを傾聴システムという。 本研究ではユーザに楽しんで話してもらうことのできる積極傾聴システムを作ることを目指して、まずはあいづちのタイミングを予測することのできる分類器の制作を試みる。またその過程でその学習・評価に適したコーパスも制作する。 ## 2 背景 傾聴システムには入院患者や高齢者の話し相手となること[1]や、ユーザの話したい、話を聞いてもらいたいといった欲求を満たすこと [2]が期待されている。 このようなシステムでは、話し手であるユーザの発話を聞き手であるシステムが積極的に引き出し、 ユーザにできるだけ楽しんで話してもらう必要があると考えた。本研究ではそのような積極的な傾聴のことを積極傾聴と呼びたい。 ## 2.1 先行研究 我々は SVM を用いて以前にも同様の研究に取り組んだが、この際には積極傾聴ではない普通の対話を収録したコーパスである千葉大学 3 人会話コーパス[3]を用いてデータセットを制作し、システムの学習・評価を行っていた[4]。しかし本来積極傾聴を行うシステムを作るなら、その学習には積極傾聴を収録したコーパスを用いることが望ましい。 類似の先行研究としては遠隔操作のアンドロイドを用いて積極傾聴を行わせ、その対話音声を元に間休止単位ごとであいづちを行うかどうか予測したものがある[5]。本研究では生身の人間同士の対話を収録したことに加えて、音響的な特徴量に加えて言語的な特徴量も用いることでさらに自然な予測を行うことを目指した。 ## 3 手法 まず積極傾聴の対話を収録したコーパスを制作し、 それを元にあいづちのタイミングを予測することのできる分類器の制作を試みる。 ## 3.1 コーパスの制作手法 対話音声の収録収録のために 2 人の実験協力者を得た。2 人には対話収録のために設置した防音室に入って対面に着席し、それぞれに指向性のへッドセットマイクを着用して対話を行ってもらった。 2 人のうちの片方には相手にできるだけ楽しんで話してもらうような積極傾聴を行うように指示した。 1 対話あたりの収録時間は当初は自然に対話が終了するまでとしていたが、この手法では実験協力者からどこで話を終えれば良いのか分からないという声が出た。そこで途中からは収録時間が 10 分を超えたところで側にいる収録担当者(音声をモニタする役目で対話には参加しない)が静かに立ち上がり、対話の終了を促すことにした。 対話は合計で 30 分 38 秒収録した。 収録音声の書き起こし・アノテーション収録した音声のうち 18 分 44 秒についてアノテーションツ ール ELAN[6]を用いて書き起こし、アノテーションを行った。 付与するタグは千葉大学 3 人会話コーパスを元に先行研究[7][8]の内容を取り込んだもので、その一覧は付録に掲載した。 形態素ごとの Forced Alignment 音声と書き起こしテキストからだけでは、発話途中の任意の時刻にどの形態素まで発話されているかが分からない。 あいづちは対話相手の発話の途中で起こることもあるから、後の学習のために音声認識エンジン Julius[9][10]を用いて Forced Alignment を行い、発話中の各形態素の開始・終了時刻を別途求めることにした。 Forced Alignment は対象の発話ごとにそれ専用の言語モデルを作ることで行った。 1. 対話音声を各発話(各アノテーションの区間) で分割する 2. アノテーションから転記タグを除去し、 kuromoji で形態素単位に分割する 3.よみがなタグの内容を各形態素と対応させ、各形態素のよみがなを調べる 4. Julius を用いて各形態素のよみがなを音素列に変換する 5. 各形態素と音素列を元に Julius の言語モデルを生成する 6. 1 の手順で分割した音声ファイルに対し、 5 の手順で生成した言語モデルを用いて Julius で Forced Alignment を実行する Forced Alignment $の$ 精度は、千葉大学 3 人会話コ一パスの音声の 1 つ(chiba0132-A.wav)に含まれる 2 語以上の発話を用いて評価したところ RMSE で 0.105 秒だった。 ## 3.2 対話システムの制作手法 まずコーパスを元にデータセットの生成を行い、次にそのデータセットを用いてあいづちタイミング予測モデルの学習・評価を行った。 データセットの作成本研究で収録したコーパスと、それに加えて事前学習用に千葉大学 3 人会話コーパスを用いてデータセットを作成した。 - 特徴量の計算手法コーパスから 1 話者の音声を抽出し、2048 フレームごとの窓区間に分割する A) 図 1 に表すように、窓区間ごとの音声波形にプリエンファシスフィルタ・ハミング窓を適用後、17 次元の $\mathrm{MFCC}($ メル周波数ケプストラム係数)を計算し、それぞれ直前の 128 区間ぶんの MFCC を音響的特徴量とする B) 図 2 に表すように、形態素ごとの Forced Alignment 結果をもとにその区間までに発話された形態素を 10 個求め、その単語埋め込み(100 次元)を言語的特徵量とする - ラベルの計算手法 特徵量の計算に使った話者の話し相手 $\mathrm{i}$ の音声を抽出し、2048 フレームごとの窓区間に分割する。 分割後の各区間とその前後の 100 ミリ秒以内にあいづちを含むあらゆる発話の開始があれば正、それ以外に負のラベルを付与する。 ## 直近の音声波形 2048フレーム 64空区間 (2.972秒) MFCC ## 17次元 ## 入力(音響的特徴量) ## inputA (inputA) 図 1 音響的特徴量の計算手法 直近の形態素 100次元 入力(言語的特徴量) ## input (input T) 図 2 言語的特徴量の計算手法 $ 千葉大学 3 人会話コーパスの場合は相手が 2 人いるのでそれぞれに計算する } MFCC の計算には内製の音響解析器 nyankyo を用いた。単語埋め込みについては学習済み Word2 Vec モデルである日本語 Wikipedia エンティティベクトル[11]を用いて取得した。 またデータセットの作成後、全ての特徴量について標準正規分布に従うよう標準化を行い、その後デ ータセットのおよそ 9 割(バッチサイズで割り切れる数に微調整した量)を学習用、残りを評価用に分割した。さらに学習用については正例を 21 倍にオー バーサンプリングし、正例と負例がおおよそ同数になるようにした。 モデルの作成今回用いたモデルを図 3 に示す。 LSTM と MLP から成る多層構造のニューラルネットワークであり、その構造は以下のようなものである。 1.【inputA/inputT】事前に計算した音響的特徴量ならびに言語的特徴量 2.【 【stmA/lstmT】1 の出力を many to one 型の LSTM に入力する 3.【merge】音響的特徴量・言語的特徴量それぞれで計算した 2 の出力を結合する 4.【dense1】3 の出力を全結合層に入力する 5.【dense2】4 の出力を全結合層に入力する 6.【output】出力層 また各層の設定は表 1 に示す通りである。 図 3 LSTM+MLP モデル表 1 モデル各層の設定 学習にあたっては、まず千葉大学 3 人会話コーパスを用いて事前学習を行い、次に本研究で収録したコーパスを用いて本学習を行った。モデルの作成や学習には Deeplearning4Jを用いた。 またコーパスとは別に、本研究で収録した音声の 1 つについて 4 人の協力者からアンケートを取り、 あいづちを打つべきタイミング全てに印をつけてもらった。この結果平均しておよそ 13 秒に 1 回のぺ ースであいづちが打たれることがわかったので、それを参考に手作業でモデルのチューニングを行った。 ## 4 評価 ## 4.1 統計的評価 データセットから評価用に分割したおよそ 1 割を用いて、Accuracy、F1 などを求めた。千葉大学 3 人会話コーパスを用いた評価結果を表 2 に、本研究で収録したコーパスを用いた評価結果を表 3 に示す。 本学習の効果を検討するため、評価は本学習に本研究で収録したコーパスを用いた場合と用いなかつた場合とでそれぞれ別々に行った。また入力に言語的特徴量を用いた効果を検討するため、モデルから言語的特徴量の部分を除いて音響的特徴量のみを用いた場合の結果も求めた。 表 2 千葉大学 3 人会話コーパスを用いた統計的評価の結果 & & \\ 表 3 本研究で収録したコーパスを用いた統計的評価の結果 & & \\ ただ、これらの評価値は 2048 フレーム(0.046 秒) ごとに正しく予測できたかで評価されているが、あいづちを打つタイミングには前後に多少のズレが許容できると考えられる。また 3.2 項でチューニングに使ったアンケートでは回答に相当の個人差があった。このことからあいら゙ちには実際打たれるタイミングよりも、打てるけれども打たないタイミングが多くあり、その選択に明確な正解というものは無いとも考えられる。 そこで別途アンケートで人的評価を行うことにした。 ## 4.2 人的評価 本研究で収録した対話音声のうち、音声には問題のない軽微な収録ミス(映像の録画トラブル)が原因で学習にも評価にも用いなかった 1 分 42 秒ぶんを用いてあいづちのタイミング予測を行い、その自然さをアンケートで 5 人の協力者に評価してもらった。結果を表 4 に示す。表 4 人的評価の結果 & & \\ アンケートの手法としては、対象となる音声の波形上に予測されたあいづちのタイミングが表示されるようなアンケート専用の Web サイトを作成し、それらのタイミングについて 1(全く自然でない)から 5 (とても自然)の間で 5 段階評価してもらった。 なお 3.2 項で書いたように今回制作したモデルは 13 秒に 1 回ほどあいづちを打つようにチューニングしたが、アンケートへの回答後、協力者全員があいづちの頻度が低くもっと打つべきだとコメントした。 したがって頻度をより高く調整することで評価もより高いものにできる可能性がある。 図 4 人的評価に用いた予測結果 人的評価に用いた音声の波形とあいづちタイミングの予測結果を図 4 に示す。青い縦線の瞬間が予測されたタイミングを表しており、主に各発話の間の短い無音区間があいづちのタイミングと予測されていることがわかる。 ## 5 おわりに 本研究では積極傾聴システム制作のための第一歩としてあいづちのタイミングを予測することのできる分類器の制作を試みた。したがって入力特徵量としては既に録音・書き起こし済みのテキストを用いたが、今後はリアルタイムの実音声を入力として、音声認識と特徴量の漸次計算を行いながらあいづちのタイミングの予測を行うような積極傾聴システムに発展させたいと考えている。 またあいづちはそのタイミングに加えて、感動系応答詞、オウム返し、共同補完などの種類の使い分けも重要である。今回収録したコーパスではそれらの種類についてもアノテーションを行っているので、 これを元にあいづちのタイミング予測に加えて種類の分類も行えるようにしたい。コーパス自体をさらに拡充させ公開することも予定している。 ## 参考文献 1. 北野浩章. 応答やあいづちに用いられる照応的な「そう」について:談話データにみる自然な対話の特徵. 京都大学言語学研究. 2000, no. 19, p. 79-94. https://ci.nii.ac.jp/naid/120001712102, (参照 2019-01-31). 2. 目黒豊美, 東中竜一郎, 堂坂浩二, 南泰浩.聞き役対話の分析および分析に基づいた対話制御部の構築. 情報処理学会論文誌. 2012, vol. 53, no. 12, p. 2787-2801. http://ci.nii.ac.jp/naid/110009493426/ja/, (参照 2020-03-20). 3. DEN, Y. A scientific approach to conversational informatics : Description, analysis, and modeling of human conversation. Conversational Informatics : An Engineering Approach. 2007. https://ci.nii.ac.jp/naid/10020493675, (参照 2019-02-06). 4. 福野将人, 狩野芳伸. 音響的特徴を用いた応答の使分け・挿入行う傾聴対話システムの試作. SIG-SLUD. 2018, vol. B5, no. 02, p. 9293.原康平,井上昂治,高梨克也,河原達也.“相槌・フィラー予測とのマルチタスク学習による円滑なターンテイキング". 第80回全国大会講演論文集. 2018, p. 409-410. 6. Han Sloetjes, Peter Wittenburg. Annotation by Category: ELAN and ISO DCR. 2008. http://www.lrecconf.org/proceedings/lrec2008/pdf/208_paper.pd $\mathrm{f}$, (参照 2021-01-13). 7. Sakishita Masahito, Kishimoto Taishiro, Takinami Akiho, Eguchi Yoko, Kano Yoshinobu. Large-Scale Dialog Corpus Towards Automatic Mental Disease Diagnosis . Springer Verlag, 2020. http://www.scopus.com/inward/record.url?scp=8 5070566443\&partnerID=8YFLogxK 8. Den Yasuharu, Koiso Hanae, Takanashi Katsuya, Yoshida Nao. "Annotation of response tokens and their triggering expressions in Japanese multi-party conversations." LREC. 2012, p. 1332-1337. 9. Lee Akinobu, Kawahara Tatsuya, Shikano Kiyohiro. Julius---an open source real-time large vocabulary recognition engine. 2001. 10. 李晃伸. Julius を用いた音声認識インタフェ ースの作成. ヒューマンインタフェース学会基礎講座第三回, 2009. 2009, p. 2-8. https://ci.nii.ac.jp/naid/20000503286/, (参照 2019-01-31). 11.鈴木正敏,松田耕史,関根聡,岡崎直観乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第22回年次大会 (NLP 2016). 2016. https://www.anlp.jp/proceedings/annual_meeting /2016/pdf_dir/A5-2.pdf. ## A 付録 \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-13.pdf
# Chatbot System for Open Ended Topics Based on Multiple Response Generation Methods Anna Maria Hadjiev Graduate School of Information Science and Technology, Hokkaido University Sapporo, Japan hadjiev@wisc.edu } Kenji Araki Faculty of Information Science and Technology, Hokkaido University Sapporo, Japan araki@ist.hokudai.ac.jp } \begin{abstract} This paper presents a chatbot intended for open-ended conversations in which the user is free to chat about any topic. The chatbot contains four separate methods of generating responses, three rule based and one based on deep learning. Based on the characteristics of the user input, the system chooses the best of the four methods to produce a response. Evaluations on the system's ability to have satisfying conversations with the user were conducted by five participants. The results support that, in the context of free conversations, a chatbot benefits in its ability to hold satisfying conversations by having multiple response generation methods built in. \end{abstract ## Key Words Chatbot, rule base, deep learning, genetic algorithm, inductive learning ## 1. Introduction Nowadays, chatbots are commonly seen for tasks whose interactions are constrained within set themes, like scheduling meetings and finding a restaurant. However, it is rare to see chatbots used for more open ended tasks such as casual conversation. The reason for this is because chatbots struggle when they are used for tasks where the system has to be able to handle a wider variety of possible inputs. One key technique chatbots use for response generation is following rules predetermined by the developers in the form of "if the user inputs $x$, then the system outputs $y$," in which $\mathrm{x}$ and $\mathrm{y}$ are both specific, predefined text. This technique fails when the user inputs something that cannot be matched with a rule, and with an unpredictable task like casual conversation, it is impossible to prepare enough rules to cover every input [1]. Unlike the rule based method, chatbots which rely on deep learning techniques to generate responses are able to provide a response for any input. However, compared to outputs of rule based chatbots, responses generated by deep learning techniques are less predictable and carry a tendency to produce nonsensical or inappropriate responses [2]. For the task of creating a chatbot which can handle a wide variety of inputs, it would be beneficial to incorporate the flexibility of deep learning methods as well as the accuracy of rule based methods. In this paper, we develop a chatbot system which uses three separate rule based methods as well as a deep learning method. For each input, one of the four methods is selected to generate a response. We define the best response to be one which can best help provide a satisfying conversation, measured by an average score measured across a few factors. ## 2. Outline of System As mentioned in the previous section, we implement four different methods of generating responses, three of which are based upon rules and one which is based on deep learning. Based on the user input, the system determines which method would produce the optimal response and generates a response based on that decision (see Figure 1). The four different methods are simple rule base, GA-IL [3], Deep Learning [2] and ELIZA [5]. Figure 1. Flowchart showing the system's process of generating a response to an input ## 2.1 Simple rule base method For the simple rule base method of response generation, we rely on rules that we predetermined and hard coded into the system. If the user input matches any of the rules we put in, then the matched rule is followed to generate a response. Table 1: Examples of rules used to respond & \\ Of the four main methods implemented in this system, the rule based method is expected to produce the best results and thus, whenever possible, this method is used over the three others. Unfortunately, this method is not flexible and most input cannot be matched to any of the written rules - when an input cannot be handled by this method, we move onto the next potential method. ## 2.2 Inductive Learning with Genetic Algorithm (GA-IL) For this method, the system also relies on pre existing rules to determine the output - however, a key difference is that these rules are learned as the system observes interactions between itself and the user. The algorithm used to generate these rules is based on a method of the same name, GA-IL (Araki et al., 2006) [3], which has produced positive results when applied in casual conversation. The algorithm works by finding similar patterns between pairs of an input sentence and its reply, and generating new rules to use based on this information. An example of this process is given below in Figure 2. 1. Pairs of a sentence and its response a. 'Do you like tennis?' : 'Yes I like it.' b. 'Do you like cats?' : 'Yes I like them.' 2. Rules generated from 1 : Do you like @ 1 : Yes I like @ 1 tennis : it , cats : them Figure 2. Example of rule acquisition using GA-IL With the GA-IL method, the system begins with no rules - thus, it requires to be run alongside a different response generation method until it populates enough rules to trigger. Because it starts with zero rules, there would not be enough rules for GA-IL to be used if we do not pretrain it to have rules from the beginning. Thus, we used a dataset provided by a chatbot challenge called DBDC3 [4] which contains conversational data between participants and chatbots, annotated for correctness. Going into the experiment, the GA-IL system contained 289 rules generated using the $\mathrm{DBDC} 3$ dataset. ## 2.3 Deep Learning The third method we incorporated into our system is deep learning. For this method, we used RNNs (recurrent neural networks), specifically a dual LSTM neural network to create a generative-based model [2]. This means that the system generates original text unlike rule based methods which are more focused on choosing from a set of predetermined text. We chose this implementation because this method has been shown to produce models which are able to learn semantically and syntactically meaningful representations of sentences [2]. For the dataset we used the Cornell Movie Dialogs Corpus, which contains 220,579 exchanges taken between 10,292 pairs of movie characters, and our model was developed using Tensorflow. Figure 3. Model and training parameters This method is less predictable than the previous rule based methods, however it is able to handle any input by the user. Thus, we use this method whenever the user input does not match a rule and is a question. In the case where the user input does not match a rule and is not a question, the next method ELIZA is used because it performs extremely well against non-inquiring inputs and can handle any input. ## 2.4 ELIZA One rule-based chatbot implementation which is able to successfully handle almost any input is a well known program created by Joseph Weizenbaum at the MIT Artificial Intelligence Library called ELIZA [5]. This program takes the user input and responds by directing the user to expand upon what they said, in a sense creating an illusion of a conversation. User: How are you? ELIZA: Why do you ask? User: Because I am interested ELIZA: Is that the real reason? Figure 4. Example of chat via ELIZA Although this method is highly flexible and can handle most inputs, because ELIZA is unable to provide its own thoughts and only the user meaningfully contributes to the conversation, chatting with ELIZA does not make for a very satisfying conversation. Especially in the case that the user asks a question, ELIZA is unable to give a satisfying response. Thus, we put this method behind rule based and GA-IL. ## 3 Experiments for evaluation For our experiment, we recruited five participants: four males and one female, all in their early twenties who are currently working in the I.T. industry and whose native language is English. We had the participants chat for 30 turns with a system consisting of only the deep learning method, a system consisting of GA-IL and ELIZA (ELIZA set to run only when GA-IL could not), and finally our complete system. After chatting with each system, the participants were asked to score their experience based on a few different factors intended to measure how satisfying their conversations were: correctness, likeability, originality, and engagingness. For the evaluations, we presented the four factors in a semantic differential scale. The semantic differential scale, which presents a rating in the form of a description and its antonym on the other side of the scale, is an effective way to have participants give ratings in evaluations. Figure 5. Semantic differential scales that the participants used for evaluations ## 4.2 Evaluation results The participants conversed with out chatbots for 30 turns each, and the results of their evaluations of the chatbots are given below in tables 2, 3 and 4 for a chatbot using only the deep learning method, a chatbot using GA-IL combined with ELIZA and out complete system, respectively. Table 2. Evaluations on deep learning chatbot Table 3. Evaluations on GA-IL + ELIZA chatbot Table 4. Evaluations on chatbot of all 4 methods Table 5. Average ratings given by participants A, $\mathrm{B}, \mathrm{C}, \mathrm{D}$ and $\mathrm{E}$ for each chatbot & -0.30 & 0.50 & 0.00 & 0.50 & -0.50 & 0.04 \\ ## 5. Conclusion Looking at the results of our experiment, we were able to show that chatbots intended for satisfying casual conversations benefit from containing multiple response generation methods to choose from depending on the user input. The results were thanks to the methods combining strengths in a way as well as making up for each other's weaknesses, especially in a context like casual conversations which involve unpredictable interactions. Running a chatbot based on predetermined rules of what exactly to respond given certain inputs makes for the best results - however, in our experiment these rule based methods were unable to be used frequently due to the lack of rules. In the future we hope to address this in ways such as expanding upon the set of rules we hard coded into the system. As for the GA-IL method, we hope to pretrain the system more on conversational data so that more rules are saved. Furthermore, in the future we are open to incorporating additional response generation methods on top of the four we already have. ## References [1] Maali Mnasri, "Recent advances in conversation; NLP: Towards the standardization of Chatbot building," Mar. 21 2019. arXiv:1903.09025v1 [cs.CL] [2] K. Cho, B. van Merrienboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, Y. Bengio, "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation," Sep. 3 2014. arXiv: $1406.1078 \mathrm{v} 3$ [cs.CL] [3] Kenji Araki, Michitomo Kuroda, "Generality of spoken dialogue system using SEGA-IL for different languages." Proceedings of the IASTED International Conference on COMPUTATIONAL INTELLIGENCE, pp.70-75, San Francisco, CA, U.S.A., 2006. [4] R. Higashinaka, K. Funakoshi, Y. Tsunomori, T. Takahashi, N. Kaji, DBDC3, GitHub, https://dbd-challenge.github.io/dbdc3/dat asets.html [5] J. Weizenbaum, ELIZA - A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), pp.295-300, 1966.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-14.pdf
# エンティティの言語間リンクに基づく多言語モデルの構築 西川荘介 ${ }^{1,2}$ 山田育矢 ${ }^{2,4}$ 1 東京大学 大学院情報理工学系研究科 3 国立情報学研究所 鶴岡 慶雅1 越前 功 ${ }^{1,3}$ \{sosuke-nishikawa,iechizen\}@nii.ac.jp ikuya@ousia.jp tsuruoka@logos.t.u-tokyo.ac.jp ## 1 はじめに 様々な言語処理タスクにおいて、資源の豊富な言語(原言語)における教師データで学習し、他の言語(目的言語)における推論で性能を向上させる言語間転移学習が研究されている. 近年これらの手法の多くは事前に多言語の大量のコーパスで学習された事前学習済み汎用多言語モデルを用いて実現される $[1,2,3]$. しかし、言語体系が異なる言語対や事前学習時に用いる目的言語のコーパスの量が比較的少ない場合、汎用多言語モデルを用いた言語間転移学習で十分な性能を発揮できない場合があることが報告されている [4]. 本研究では、知識ベース (Wikipedia) に紐づけられたエンティティ表現を用いて汎用多言語モデルの性能向上を試みる. エンティティは曖昧性を持たず文書に関連する情報を持つという特徵があり、エンティティを用いて文書分類タスクやエンティティ型推定タスクを解く手法が提案されている $[5,6,7]$. 本研究では、エンティティ間の言語間リンクを利用することで目的言語の推論データから抽出されたエンティティ群を原言語のエンティティ群に変換することで言語間の転移学習を実現する(図 1).さらに、汎用多言語モデルから得られる文脈表現から学習される注意機構によりエンティティ表現の重みつき和を計算することで、該当文書に関連するエンティティ表現を優先的に考慮するような機構を導入する.このエンティティ表現を汎用多言語モデルから得られる表現に付加的に加算することで性能の向上を試みる.この手法では原言語で学習したエンティティ表現を推論に直接用いることで言語間転移学習を可能とする. また、既存の多言語モデルに容易に組み込むことができ、追加の学習のデータを必要とせず言語対ごとに再学習する必要がない. 図 1 提案手法の概要図. 図は目的言語における推論時の処理を表す. 学習時は言語間リンクによる変換を行わない. 実験では、文書分類タスクとエンティティの型推定タスクにて、原言語を英語とし目的言語を 7 言語および 10 言語で評価を行い、ベースラインとなる汎用多言語モデルと比較して性能の向上を確認した. ## 2 関連研究 ## 2.1 言語間転移学習 言語間転移学習を実現するにあたり、機械翻訳を用いた手法や多言語分散表現を用いた手法が提案されている $[8,9]$. 近年では Multilingual-BERT (M-BERT) [1] 等に代表される多言語の大規模言語コーパスを用いて事前訓練された汎用多言語モデルが提案され $[1,2,3]$ 、このモデルに基づく多言語モデルが様々な言語間転移タスクで高い精度を達成している。しかし、これらの手法では異なる言語体系を持つ言語対や事前学習用コーパスにあまり現れない言語に対して、性能が十分に発揮されないことが報告されている [4]. この問題に対し、目的言語の追加データを用いて汎用多言語モデルの性能の向上を試みる手法が提案されている. 目的言語のラベルなしコーパスを利用することで言語とドメインの差を埋める学習や[10]、原言語で学習したモデルを用いて目的言語のラベルなしコーパスに擬似ラベルを付与しデータ 拡張する手法 [11]、対訳コーパスを用いて再学習する手法 [3] 等がある. しかしこれらの手法では言語対ごとに追加データを利用して多言語モデルを再学習する必要があり、学習コストがかかる. また、再学習されたモデルは該当する 1 つの目的言語で性能を発揮するが、複数の言語に対して同時に性能を発揮する多言語モデルの利便性が失われている. 提案手法では原言語で学習したエンティティ表現を直接目的言語での推論に用いるため、モデルは言語対に依存せず性能を発揮することが期待される. また、追加データを必要とせず単一モデルの学習のみでの言語間転移の性能向上が可能となる. ## 2.2 エンティティ表現 エンティティ表現とは Wikipedia 等の知識ベー スに紐づくエンティティを表すべクトル表現であり、多くの自然言語処理タスクに応用されている [5, 6, 7, 12]. Wikipedia2Vec [13] はエンティティ表現を学習する手法の 1 つであり、skip-gram モデル [14] に基づき Wikipedia ページにおけるエンティティの周辺単語の予測と Wikipedia のページ間リンクでつながっているエンティティの予測を行うことでエンティティ表現を学習する. 本研究ではこの Wikipedia2Vecを用いてエンティティ表現を事前に学習する. エンティティ表現の応用例の一つとして文書分類タスクがあり、文書中から文書に関連するエンティティ群を優先するような注意機構により重み付けをしたエンティティ表現の和を用いて、単言語の文書分類を解く手法が提案されている [5]. この研究では注意機構を学習する際、単語分散表現の平均ベクトルとエンティティ表現のコサイン類似度を素性として用いているが、本研究では多言語事前学習モデルの隠れ表現とエンティティ表現のコサイン類似度を素性として注意機構を学習する。 また、エンティティ表現を汎用言語モデル BERT [1] に組み込む関連研究として、エンティティ表現用の追加のエンコーダーを導入し再度事前学習を行う手法 $[15,16]$ や文書中のエンティティ名の近傍に知識ベースに紐づくエンティティを挿入する手法 [17]、エンティティ表現を事前学習により直接獲得する手法 $[18,19]$ 等が提案されている. 本研究では多言語タスクの性能向上を目的としており、ある多言語タスクの学習と同時にエンティティ表現をモデルに導入する機構を学習するため、追加の事前学習 を必要としない. また、多言語モデルの内部構造を改変することなく外部から付加的にエンティティ表現を導入するため、複数提案されている既存の多言語モデルに対して本手法を適用することができる. ## 3 提案手法 本節ではエンティティ表現を汎用多言語モデル M-BERT に組み込む手法を提案する。 ## エンティティの処理 まず文書から文書中に現れるエンティティ群を抽出する. 本研究では知識べースとして Wikipediaを用い、Wikipedia におけるぺージ内リンク情報 [20] からエンティティ名("東大")とエンティティ(東京大学)を紐づけるエンティティ辞書を構築する。 このエンティティ辞書を参照して文書中のすべてのエンティティ名から対応するエンティティ候補を全て抽出する1).また、あるエンティティ名がページ内リンクである確率(リンク確率)とあるエンティティ名が特定のエンティティを示す確率(コモンネ ス)も事前に獲得する。 Wikipedia では同じエンティティに関するページが複数の言語で作成されており、同一のエンティティは言語をまたいで言語間リンクで接続されている. 目的言語における推論時は、文書から抽出される目的言語のエンティティ群をエンティティの言語間リンクを用いて原言語のエンティティ群に変換する。 ## 注意機構の学習 次に文書中から抽出されたエンティティ群それぞれに、対応する事前学習済みエンティティ表現を割り当てる. 本手法ではエンティティ辞書を参照してエンティティ名に紐づく全てのエンティティを抽出しているため、該当文書には関連しない知識べー スに紐づけられたエンティティも抽出している場合がある.この問題を解決するため、文書に関連するエンティティ表現を優先するような注意機構を導入する. 具体的には以下のようにエンティティ表現 $\boldsymbol{v}_{\boldsymbol{e}} \in \mathbb{R}^{d}$ の重みつき和を計算することで文書に関連したエンティティに基づく特徴量 $z_{\text {entity }} \in \mathbb{R}^{d}$ を  得る. $ z_{\text {entity }}=\sum_{i=1}^{K} a_{e_{i}} \boldsymbol{v}_{\boldsymbol{e}_{i}} $ ここで $a_{e} \in \mathbb{R}$ はエンティティ $e$ に対応する注意機構の重みであり、以下の式によって $\boldsymbol{a}=$ $\left[a_{e_{1}}, a_{e_{2}}, \cdots, a_{e_{K}}\right]$ を学習する. $ \begin{gathered} \boldsymbol{a}=\operatorname{Softmax}\left(\boldsymbol{W}_{\boldsymbol{a}}^{\top} \boldsymbol{\phi}\right) \\ \phi(e, D)=\operatorname{cosine}\left(\boldsymbol{h}, \boldsymbol{v}_{\boldsymbol{e}}\right) \oplus p \end{gathered} $ ここで $W_{a} \in \mathbb{R}^{2}$ は重みべクトルである. $\phi=$ $\left[\phi\left(e_{1}, D\right), \phi\left(e_{2}, D\right), \cdots, \phi\left(e_{K}, D\right)\right]$ は文書 $D$ から抽出されたエンティティ群と $D$ の関連度合いを測る素性であり、M-BERT の入力列の [CLS] トークンに対応する最終の隠れ表現 $\boldsymbol{h} \in \mathbb{R}^{d}$ とエンティティ表現 $v_{\boldsymbol{e}}$ のコサイン類似度にコモンネス $p$ を連結させたベクトルである. ## 汎用多言語モデルへの付加 BERT に基づく汎用言語モデルで文書分類タスクを解く際はこの隠れ表現 $\boldsymbol{h}$ を付加的に接続された分類器に入力し、クラス $c$ の確率を推論する. 提案手法ではこの隠れ表現 $\boldsymbol{h}$ に、 $z_{\text {entity }}$ を足し合わせた表現を分類器に入力しモデルを学習する. $ p\left(c \mid \boldsymbol{h}, z_{\text {entity }}\right)=\text { Classifier }\left(\boldsymbol{h}+z_{\text {entity }}\right) $ ## 4 実験 本研究では文書分類タスクとエンティティの型推定タスクにて提案モデルの評価を行った. 両タスクでは英語を訓練データ、検証データとし、その他の言語をテストデータとした. 本手法は任意の多言語モデルに適用可能であるが、実験では M-BERT の既存実装2)をべースラインとして用いて提案手法の有効性を検証した。 ## 4.1 実験設定 ## 文書分類タスク 文書分類タスクとは文章をトピックに対して分類するタスクであり、データセットとして MLDoc [21]を用いた.この MLDoc は文書を CCAT (Corporate/Industrial)、 ECAT (Economics)、GCAT (Government/Social)、MCAT (Markets) のいずれかのカテゴリに分類するマルチクラス分類タスクであり、 8 言語での文書データが収録されている。デー タセットの詳細を表 2 に示す. 実験では M-BERT モデルに対して全結合層と Softmax 層を接続しCross-entropy 損失を最適化することで学習する.また学習は異なる乱数シードで 10 回行い、その正解率の平均を示す. ## エンティティの型推定タスク エンティティの型推定とは Wikipedia のページをカテゴリに分類するタスクであり、データセットとして SHINRA2020-ML ${ }^{3)}$ を用いた.このタスクは Wikipedia のページに対して約 220 種類の拡張固有表現4) のラベルを付与するマルチラベル分類タスクである. 公開されているデータセットの中で MLDoc と同じ 8 言語に加えて、英語と言語体系が大きく異なる言語群(hi、ar)と M-BERT の事前学習データに含まれていない言語(th)を選択した. データセットの詳細を表 1 に示す. 検証データとして学習デー タの $5 \%$ をラベルの比率を維持して抽出したものを利用した。 実験では M-BERT モデルに対して全結合層と Sigmoid 層を接続し Binary-cross-entropy 損失を最適化することで学習した. 推論時は Sigmoid 層の出力が 0.5 以上になるラベルを予測ラベルに追加した.  表 3 文書分類タスクにおける正解率 また、SHINRA2020-ML での評価指標 [22]に倣い、 F1 値のマイクロ平均を評価指標として用いた。 ## エンティティの処理 2019 年 1 月版の英語 Wikipedia コーパスから Wikipedia2Vec [13] を用いてエンティティ辞書の作成とエンティティ群の抽出を行った. この際、リンク確率が 0.01 以上かつコモンネスが 0.05 以上のエンティティを抽出した. エンティティの言語間リンクは Wikidata ${ }^{5)}$ から取得した。 また、提案手法ではエンティティ表現 $v_{\boldsymbol{e}}$ を事前に学習した表現で初期化した. エンティティ表現の学習には Wikipedia2Vec を用い、同じ版の英語 Wikipedia コーパスからベクトルの次元数を 768、その他のパラメータはデフォルト值に設定して学習した. ## その他の設定 全ての実験において学習率は $2 \times 10^{-5}$ に設定し、パラメータ更新の最適化アルゴリズムは AdamW [23] を用いた. バッチサイズは文書分類タスクでは 32 、 エンティティの型推定タスクでは 256 に設定して学習した. また、検証用データにおいてそれぞれの評価指標における性能が改善されなくなるまで学習を行った. また、エンティティ表現を事前学習する有効性を検証するため、エンティティ表現をランダムに初期化したモデル(M-BERT + BoE (-emb)) を学習した. さらに、注意機構の有効性を検証するため、注意機構を取り除いたモデル(M-BERT + BoE (-att))を学習した。  ## 4.2 結果 表 3,4 に文書分類タスクとエンティティの型推定タスクの実験結果を示す. どちらのタスクにおいても多くの目的言語において提案手法がベースラインを上回る性能を示した. 特にエンティティ型推定夕スクにおける英語と言語体系的に大きく異なる言語群(hi、ar)において 5 6 ポイントの性能の向上を確認した。 また、多くの言語対で事前学習済みエンティティ表現による初期化を行うモデルの方が性能が高いが、一部の言語対では初期化を行わない方が性能が高くなる場合があることが分かった. さらに、注意機構を利用しなかったモデルはベースラインよりも悪い性能となっており、注意機構による重み付けが有効に働いていることを確認した。 ## 5 おわりに 本研究ではエンティティの言語間リンクにより原言語に変換したエンティティ表現を付加的に用いることで、汎用多言語モデルにおける言語間転移学習の性能を向上させる手法を提案した。 実験では言語間の文書分類タスク、エンティティの型推定タスクにおいてべースラインである M-BERT と比較し提案手法の優位性を示した. また、注意機構や事前学習済みエンティティ表現による初期化が有効に機能していることを確認した. 本研究ではベースラインとして M-BERTを用いているが、他の事前学習済み汎用多言語モデルや多言語分散表現を用いたモデルにおいても提案手法が有効に機能するか検証することが今後の展望として考えられる。 ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, June 2019. [2]Sebastian Ruder, Anders Søgaard, and Ivan Vulić. Unsupervised cross-lingual representation learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Tutorial Abstracts, pages 31-38, July 2019. [3]Alexis CONNEAU and Guillaume Lample. Cross-lingual language model pretraining. In Advances in Neural Information Processing Systems, volume 32, pages 7059-7069, 2019. [4]Telmo Pires, Eva Schlinger, and Dan Garrette. How multilingual is multilingual BERT? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4996-5001, July 2019. [5]Ikuya Yamada and Hiroyuki Shindo. Neural attentive bagof-entities model for text classification. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pages 563-573, November 2019. [6]Ikuya Yamada, Hiroyuki Shindo, and Yoshiyasu Takefuji. Representation learning of entities and documents from knowledge base descriptions. In Proceedings of the 27th International Conference on Computational Linguistics, pages 190-201, August 2018. [7]Jin Wang, Zhongyuan Wang, Dawei Zhang, and Jun Yan. Combining knowledge with deep convolutional neural networks for short text classification. In Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, IJCAI-17, pages 2915-2921, 2017. [8]Kui Xu and Xiaojun Wan. Towards a universal sentiment classifier in multiple languages. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 511-520, September 2017. [9]Long Duong, Hiroshi Kanayama, Tengfei Ma, Steven Bird, and Trevor Cohn. Multilingual training of crosslingual word embeddings. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 894-904, April 2017. [10]Guokun Lai, Barlas Oguz, Yiming Yang, and Veselin Stoyanov. Bridging the domain gap in cross-lingual document classification. arXiv preprint arXiv:1909.07009, 2019. [11]Julian Eisenschlos, Sebastian Ruder, Piotr Czapla, Marcin Kadras, Sylvain Gugger, and Jeremy Howard. MultiFiT: Efficient multi-lingual language model fine-tuning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5702-5707, November 2019. [12]Nina Pörner, Ulli Waltinger, and Hinrich Schütze. BERT is not a knowledge base (yet): Factual knowledge vs. name-based reasoning in unsupervised QA. arXiv preprint arXiv:1911.03681, 2019. [13]Ikuya Yamada, Akari Asai, Jin Sakuma, Hiroyuki Shindo, Hideaki Takeda, Yoshiyasu Takefuji, and Yuji Matsumoto. Wikipedia2Vec: An efficient toolkit for learning and visualizing the embeddings of words and entities from Wikipedia. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 23-30, October 2020. [14]Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [15]Zhengyan Zhang, Xu Han, Zhiyuan Liu, Xin Jiang, Maosong Sun, and Qun Liu. ERNIE: Enhanced language representation with informative entities. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1441-1451, July 2019. [16]Matthew E. Peters, Mark Neumann, Robert Logan, Roy Schwartz, Vidur Joshi, Sameer Singh, and Noah A. Smith. Knowledge enhanced contextual word representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pages 43-54, November 2019. [17]Nina Poerner, Ulli Waltinger, and Hinrich Schütze. EBERT: Efficient-yet-effective entity embeddings for BERT. In Findings of the Association for Computational Linguistics: EMNLP 2020, pages 803-818, November 2020. [18]Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextualized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 6442-6454, November 2020. [19]Thibault Févry, Livio Baldini Soares, Nicholas FitzGerald, Eunsol Choi, and Tom Kwiatkowski. Entities as experts: Sparse memory access with entity supervision. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4937-4951, November 2020 . [20]Stephen Guo, Ming-Wei Chang, and Emre Kiciman. To link or not to link? a study on end-to-end tweet entity linking. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 1020-1030, June 2013. [21]Holger Schwenk and Xian Li. A corpus for multilingual document classification in eight languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), May 2018. [22]Satoshi Sekine, Masako Nomoto, Kouta Nakayama, Asuka Sumida, Koji Matsuda, and Maya Ando. Overview of shinra2020-ml task. In Proceedings of the NTCIR-15 Conference, 2020. [23]Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. ## A 付録 謝辞 本研究は JSPS 科研費 JP16H06302, JP18H04120 および JST CREST JPMJCR18A6, JPMJCR20D の助成を受けたものです.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-15.pdf
# 入れ子になっている固有表現に対する Distant Supervision 芝原 隆善 ${ }^{1,2}$, 山田 育矢 ${ }^{2,3}$, 西田 典起 ${ }^{2}$, Shanshan $\operatorname{Liu}^{2}$, 古崎 晃司 ${ }^{2,4}$, 渡辺 太郎 ${ }^{1}$, 松本 裕治 ${ }^{2}$ 1 奈良先端科学技術大学院大学 \{shibahara.takayoshi.sk4, taro\}@is.naist.jp 2 理化学研究所 \{takayoshi.shibahara, ikuya.yamada, noriki.nishida, shanshan.liu, kouji.kozaki, yuji.matsumoto \}@riken.jp ${ }^{3}$ Studio Ousia ikuya@ousia.jp 4 大阪電気通信大学 kozaki@osakac.ac.jp ## 1 はじめに 本研究では Nested NER と呼ばれるタスクに取り組む。Nested NER とは、入れ子になっている語句をも対象にする固有表現抽出のタスクである。このタスクでは例えば、“... in the human immunoglobulin heavy-chain gene enhancer.”という文を入力として、 “human immunoglobulin heavy-chain” が protein であり "human immunoglobulin heavy-chain gene enhancer" が DNA であることを特定する。このタスクは近年様々な手法で取り組まれており、特にスパンを全て列挙して分類する枠組みで取り組めることから、多くのスパン分類のモデルでの研究が行われている $[1,2,3,4,5]$ 。 一方で入れ子でない固有表現抽出に対して、従来からそのアノテーションコストが問題視されてきた。そこで既知の語句集合: 辞書を利用した擬似データ作成に基づく、教師なし設定の固有表現抽出: Distant Supervision NER が行われてきた。Distant Supervision NER には辞書拡張を活用する手法 [6] 、 Self-training や Partial CRF などの辞書マッチを正しいとしてそのラベルを伝搬させる手法 $[7,8]$ など様々な手法が提案されてきたが、辞書拡張を活用する手法の中には Nested NER のようにスパン分類モデルを利用する手法 [9] も知られている。 本研究では Nested NER に対して Distant Supervision の設定で問題に取り組む。つまり、辞書マッチによる擬似データ生成と教師あり学習による手法で、入れ子の固有表現を抽出する。この際、本研究では上記の二つの研究で利用されているスパン分類モデルを利用する。 本研究では GENIA [10] コーパスで評価を行った。辞書マッチによる $\mathrm{F}$ 值は $25 \%$ とかなり低かったが、 POS タグに基づくChunker を利用したことで、 $39 \%$ ほどの $\mathrm{F}$ 值へと改善した。同じ Chunker を活用することで、Distant Supervision において $48 \%$ の精度が得られた。その一方で Distant Supervisionによる結果は、教師あり設定の $76 \%$ と比べて $28 \%$ 低い結果となった。 ## 2 手法 ## 2.1 辞書マッチによる擬似データ作成 今回の擬似データ作成ではカテゴリごとに分けられた語句: 辞書を活用する。文中に現れる辞書1)の語に対して、出現したスパンと辞書中でのカテゴリを擬似教師データとして活用する。この辞書マッチの際に重複を許すことで入れ子の固有表現を考慮できるようにした。2) 辞書に含まれるものはそのカテゴリに分類し、辞書に含まれないスパンは “Others” というカテゴリに分類する。この “Others” カテゴリはテスト時には無視されるカテゴリである。 今回取り扱う辞書にはタンパク質名の “Beta1Tubulin” と遺伝子名の “beta1-tubulin” など大文字・小文字の差異で区別される語句が存在した。そのような事例に対して precision を上げ、かつ全体としては recall を向上させるために、このような文字種によって区別される複数の語句が存在する時には大文字と小文字を区別する辞書マッチを行い、そうでない場合には大文字と小文字を区別しない辞書マッチを行った。 ## 2.1.1 Chunker を利用した辞書マッチ 辞書マッチを単純に行うだけでは、しばしばスパンを短く取ってしまうという問題が生じた。例えば、図 1 で示された例では、辞書によって “HB24" と “mRNA” がマッチしているが、正解のスパンは “HB24 mRNA” だけである。そこで、まず“HB24 mRNA”というスパンを Chunkerによって獲得し、 このスパンの末端に位置する語句 (“mRNA”) の辞書での分類 (RNA) を利用して、スパンのラベル付を行った。このような Chunker の利用は Disntant Supervision NER において以前から行われいる方法である [11,9]。今回は scispaCy [12]を利用して得られた POS タグを活用して、正規表現を利用した Chunker ${ }^{3)}$ を作成した。この Chunker は入れ子の Chunk を予測できない。そのため、入れ子の疑似データを作成できないが、入れ子の構造を考慮した Chunker は今後の研究課題とする 図 1 Chunker を利用した辞書マッチの例 ## 2.1.2 Others $の$ Undersampling 上記の辞書マッチの手順から明らかな通り、辞書に含まれないスパンに相当する “Others” カテゴリの個数が多くなってしまい、うまく学習ができないことが想定される。そこで “Others”以外のカテゴリと “Others” が同じ頻度になるように “Others” のラベルをランダムにサンプリングした。 ## 2.2 学習に利用したスパン分類モデル 今回利用するスパン分類モデルは [13] のモデルを参考にしている。特徴量抽出部分は BioBERT [14] を活用し、それぞれのスパンに対して、スパンのはじめと終わりの位置の最終隠れ層のベクトルを連結して利用する。この際に全ての ${ }^{4}$ スパンを列挙して分類することで、入れ子になっている固有表現に対応する。分類器部分は Dropout、線形変換及び softmax を利用し、それぞれのスパンに対して確率值を計算する。それぞれのスパンに対する確率値から擬似正解との相互エントロピーをロスとして利用する。 事前実験によってこのスパン分類モデルが長いスパンを予測しがちであることがわかった。そのため、POS タグに基づくChunker ${ }^{3}$ )の予測する Chunk の範囲内に絞って学習と予測を行った。つまりこの Chunk を最大幅とするスパン内部においてのみ入れ子構造を予測した。 ## 3 データセット ## 3.1 擬似データ作成に利用した資源 疑似データの作成のため、辞書として UMLS を、辞書マッチの対象となるラベルなしコーパスとして PubMed を利用した。UMLS は 2020AA のバージョンを利用し、総計 290,706 個の語句からなる辞書 1) を活用した。また、PubMed からは 100,000 文を利用し、train と developmentに 8 対 2 の割合で分割して利用した。 ## 3.2 評価データセット 評価データセットとして Nested NER の先行研究でよく利用されている GENIA データセット [10]を利用した。GENIA データセットには並列句など複数の語句が含まれるスパンに対するアノテーションが振られている。Nested NER の先行研究では、このような並列句を含んだスパンを問題の対象に含めるものもあるが、本研究ではこれらのスパンを対象外とした。BioBERTに入力する前に単語分割するために scispaCy [12]を利用した。 GENIA データセットの train/development/test の各データ分割は、 $15,024 、 1,670 、 1,855$ 文である。教師あり設定の場合はこれらのすべてを利用し、Distant Supervision 設定の場合は test データのみ利用している。つまり Distant Supervision 設定では学習の際に擬似データのみしか利用しておらず、評価の際にのみアノテーションデータを利用している。GENIA データセットにおけるそれぞれのカテゴリの固有表現の数は表 1 の通りである。  表 1 GENIA データセットにおける 各カテゴリの固有表現数 ## 4 実験と結果 ## 4.1 擬似デー夕作成 表 2 には擬似データ作成手順による精度を GENIA コーパス [10] のテストデータに対して評価した結果を示した。“nest inside prediction”の列には予測されたスパンのうち他のスパンの内側に入っているスパンの個数を示している。“nest inside R.”が入れ子の内側となっているスパン、“nest outside R.” が入れ子の外側になっているスパンに対する recall の値が計算されている。“Dictionary Match” は辞書マッチによるスパン同定とクラス分類を意味する。次に “Chunker + End Match” は POS タグを利用した Chunkerによるスパン同定と、そのスパンの末端語に対して辞書を利用したクラス分類である。次の “Oracle Span + End Match” は、スパン同定には正解のデータを利用し、クラス分類にはスパンの末端語句の辞書マッチを利用した手法であり、“Gold” は正解のテストデータから分かる数值を記載している。 ## 4.2 Distant Supervision 表 3 は Distant Supervision を適用した時の精度について述べている。この表 3 は表 2 と同様に、テストデータにおける固有表現抽出の精度と予測における入れ子の固有表現の数と、入れ子の内側の正解数を示している。左側の Model 部分には手法名を示している。上から大きく、擬似データ作成手法、Distant Supervision, 教師あり手法の精度を表している。“Chunker + End Match” は擬似データ作成手法であり、POS タグベースの Chunker によるスパン同定とスパン末端語句によるスパン分類から構成されている。これは表 2 の “Chunker + End Match” と同じものである。"BioBERT (Distantly Supervised)" は “Chunker + End Match” の手法で作成した擬似デー タを元にスパン分類モデルを適用したものである。 “+ Chunker” は “BioBERT (Distantly Supervised)” に追加して、訓練と予測の対象とするスパンを POSに基づいた Chunker で取得される Chunk の内部に限定したものである。"BioBERT (Supervised)” は “BioBERT (Distantly Supervised)”と同じスパン分類モデルを教師ありデータで学習したモデルを意味している。 ## 5 考察 ## 5.1 擬似デー夕作成 表 2 の結果から、辞書だけだと精度が出ず、 Chunker を利用すると精度が改善することがわかる。 つまり、辞書の示すスパンとテストデータにおけるスパンが一致していないことがわかる。また、正解データのスパンを利用した結果とも乘離があることから、この POS タグを利用した Chunker はスパン同定を完全にはできていないということがわかる。 入れ子の予測観点では、単純に辞書マッチをした場合に、Gold データよりも入れ子になることが多いということがわかった。POS タグベースの Chunker を利用した場合、基本的には外側のスパンを取るような設計になっている。そのため一部の例外的な事例を除き入れ子の予測はなく、入れ子の予測事例は 10 となっている。Oracle のスパンを利用した際には 241 個の内側のスパンしか取れておらず、Gold のものに比べて約 $40 \%$ ほどであり、辞書の被覆率の小ささが影響していると考えられる。 これらの実際の入れ子部分に対する予測精度を見てみるとデータセット全体での精度と比べて大きな違いがないことが全ての手法で見て取れる。ただし全ての場合で、外側のスパンを特定することが容易であることが分かる。基本的に外側のスパンを取得するように設計された Chunker に基づいているので、“Chunker + End Match” では入れ子の内外の精度に比較的大きなスコア差があることが見て取れる。 この Chunker は外側の一番大きなスパンを取ることを目的とした正規表現に基づいているものの、例外的に一部入れ子のスパンを出力している。 ## 5.1.1 エラー分析: 曖昧なスパン エラー分析を行ったところ、スパン境界が曖昧と見える事例がいくつか存在した。特に修飾語がつくかどうかという曖昧性が多かった。例えば“two nuclear proteins", "pure B cellline" などの修飾語が正解スパンに含まれる事例があった。その一方で、novel “TH protein”, purified “NF-kappa B” など、修飾語を含 表 2 擬似データ作成手順による精度 表 3 Distant Supervision 適用による精度 まないスパンが正解スパンとされている事例も存在した。このような事例に対して辞書に修飾語がつかない語句が含まれているならば、修飾語の含まれる場合・含まれない場合どちらが正解かを決めることは困難であると考えられる。 ## 5.2 Distant Supervision 表 3 より “Chunker + End Match”と “BioBERT (Distantly Supervised)” の比較から、このノイズのあるデータに基づいて学習・予測させることは難しいということがわかる。具体的には並列句のような長いスパンを予測してしまうことが多かった。“+ Chunker”と予測範囲を Chunkerによるスパン内部に限定しない “BioBERT (Distantly Supervised)” の比較から、精度が改善していることがわかる。これは、先ほど述べたような長いスパンを抑制できているためだと考えられる。一方で、教師あり手法を利用した “BioBERT (Supervised)” と比較すると $20 \%$ ほどの差があることから、データノイズの影響や Chunker の制限により予測できなくなったスパンなどの影響で依然として教師あり手法にはかなり劣っていることがわかる。 入れ子になっている予測事例の数を確認すると、 “BioBERT (Distantly Supervised)” が飛び抜けて多い。 これは上記のような長いスパンの影響が考えられる。精度が低いものの“+ Chunker”では一定数の入れ子の事例を予測している。入れ子を直接訓練事例として与えなくても、構成する単語などから、入れ子の固有表現を予測しているのだと考えられる。興味深いのは教師あり学習の結果、アノテーションデータと比べて約 1.5 倍入れ子のスパンを予測して いる点である。教師あり学習の際にも、構成される単語などから過剩に固有表現を予測してしまう傾向がある可能性が考えられる。 実際の入れ子事例に対する精度を見てみると、 データセット全体のスコアと大きな違いが出ていないことが分かる。これも擬似データ作成の場合と同様に、入れ子の外側と内側では入れ子の外側の特定が容易であることが見て取れる。 ## 6 結論 本稿では擬似データ作成に基づく入れ子の可能性を考慮した固有表現抽出に取り組んだ。擬似データの作成がそもそも難しく、不十分な擬似データ手法によるノイズの多いデータに基づいた学習は難しいということがわかる。 Distant Supervision NER の先行研究の BOND [9] では、ノイズのあるデータに過学習させないことで、不十分な精度の擬似データに対処している。このように今後はデータ中のノイズを考慮した手法 [15] を試みる必要があると考えている。 また、5.1.1に述べたが、そもそもどれだけ複雑な概念を取ってくるかには曖昧性がある。例えば辞書に“water”だけがある場合、“pure”を含めた “pure water”を抽出するかどうかは応用先の意図に依存し、辞書だけで判定するのは困難である。そのため Distant Supervision NER において、固有表現が取れている/取れていないを判定するには、別の評価尺度を併用することが必要なのではないだろうか。具体的には正解スパンの headword が取れているか [3] などの評価方法が考えられる。 ## 参考文献 [1] Mingbin Xu, Hui Jiang, and Sedtawut Watcharawittayakul. A Local Detection Approach for Named Entity Recognition and Mention Detection. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1237-1247, Vancouver, Canada, July 2017. Association for Computational Linguistics. [2] Mohammad Golam Sohrab and Makoto Miwa. Deep Exhaustive Model for Nested Named Entity Recognition. In EMNLP, 2018. [3] Yi Luan, Dave Wadden, Luheng He, Amy Shah, Mari Ostendorf, and Hannaneh Hajishirzi. A general framework for information extraction using dynamic span graphs. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3036-3046, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Hiroki Ouchi, Jun Suzuki, Sosuke Kobayashi, Sho Yokoi, Tatsuki Kuribayashi, Ryuto Konno, and Kentaro Inui. Instance-Based Learning of Span Representations: A Case Study through Named Entity Recognition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July 2020. [5] L. Sun, F. Ji, K. Zhang, and C. Wang. Multilayer ToI Detection Approach for Nested NER. IEEE Access, Vol. 7, pp. 186600-186608, 2019. Conference Name: IEEE Access. [6] Jingbo Shang, Liyuan Liu, Xiaotao Gu, Xiang Ren, Teng Ren, and Jiawei Han. Learning Named Entity Tagger using Domain-Specific Dictionary. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2054-2064, Brussels, Belgium, 2018. Association for Computational Linguistics. [7] Zhanming Jie, Pengjun Xie, Wei Lu, Ruixue Ding, and Linlin Li. Better Modeling of Incomplete Annotations for Named Entity Recognition. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 729734, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Nathan Greenberg, Trapit Bansal, Patrick Verga, and Andrew McCallum. Marginal Likelihood Training of BiLSTM-CRF for Biomedical Named Entity Recognition from Disjoint Label Sets. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2824-2829, Brussels, Belgium, October 2018. Association for Computational Linguistics. [9] Chen Liang, Yue Yu, Haoming Jiang, Siawpeng Er, Ruijia Wang, Tuo Zhao, and Chao Zhang. BOND: BERTAssisted Open-Domain Named Entity Recognition with Distant Supervision. In Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, KDD ’20, pp. 1054-1064, New York, NY, USA, August 2020. Association for Computing Machinery. [10] J.-D. Kim, T. Ohta, Y. Tateisi, and J. Tsujii. GENIA corpus - a semantically annotated corpus for bio-textmining. Bioinformatics, Vol. 19, No. suppl_1, pp. i180-i182, July 2003. [11] Jason Fries, Sen Wu, Alex Ratner, and Christopher Ré. SwellShark: A Generative Model for Biomedical Named Entity Recognition without Labeled Data. arXiv:1704.06360 [cs], April 2017. arXiv: 1704.06360. [12] Mark Neumann, Daniel King, Iz Beltagy, and Waleed Ammar. ScispaCy: Fast and Robust Models for Biomedical Natural Language Processing. In BioNLP@ACL, 2019. [13] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep Contextualized Entity Representations with Entity-aware Self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 64426454, Online, November 2020. Association for Computational Linguistics. [14] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, p. btz682, September 2019. arXiv: 1901.08746. [15] Hwanjun Song, Minseok Kim, Dongmin Park, and JaeGil Lee. Learning from Noisy Labels with Deep Neural Networks: A Survey. arXiv:2007.08199 [cs, stat], October 2020. arXiv: 2007.08199. [16] Olivier Bodenreider. The Unified Medical Language System (UMLS): integrating biomedical terminology. Nucleic Acids Research, Vol. 32, No. Database issue, pp. D267270, January 2004. ## A POS に基づく Chunker 本稿で利用した POSに基づくChunker は POS タグを取得した後、正規表現を利用して Chunk を取得する。なお POS タグの検出には sciSpacy [12]を利用した。この正規表現は Chunk の左部分の検出と右部分の検出、修飾語及び語句末端の検出部分から構成されている。例えば、“The United States is ...”という文に対して “DT NNP NNP VBZ ..." という POS タグ系列が得られたとする。この時、Chunk の左側として “DT”を、右側として “VBZ” を、修飾語として“NNP”を語句未端として“NNP”を検出する。 Chunk の左側は “DT”, “IN”, “CC”, “,", "RB”, "RBR”, "RBS", "RP", "VB”, "VBD”, "VBZ", "VBP”, “.", “-LRB-", “WDT”, “TO”, “.", “NNS”, “-RRB-”, “PRP\$” のいずれかの POS タグである。ただし、文頭の可能性もあるとする。 Chunk の右側は “,", “., "IN”, “VB”, "VBD”, “VBZ", “VBN", "VBP", "CC", "MD”, "DT", "RB", "RBR", "RBS”, "JJ”, "JJR", "JJS", "RP", “-LRB-", “-RRB-”, “WDT”, “TO”, “:” のいずれかの POS タグである。ただし文末の可能性もあり、語句末端の語句が複数形の場合 “NN” もふくむとする。修飾語は “JJ”, “NN”, "NNP", “CD”, “VBG", "VBN", “”” の POS タグのうちのいずれかの繰り返しである。 語句末端の POS タグを考慮するにあたって、複数形と単数形で対応を変えた。単数形の場合、語句末端は “NN” あるいは “VBG”であるとした。複数形の場合 “NNS” であるとした。また、“interleukin 2” のような事例に対応するために未端に数字: “CD”が来ても良いとした。 以上の説明を python の正規表現にまとめるの次のようにかける。まず単数形の場合、 (DT | IN $|C C|,|R B| R B R|R B S| R P|V B| V B D|V B Z| V B P \mid$ . |-LRB-|WDT |TO| : |NNS|-RRB-|PRP\$|<S>) ( ( $J$ J |NN |NNP $|C D| V B G|V B N| '$ ' $) *(N N \mid V B G)(C D) ?)$ (, | . I IN | VB | VBD |VBZ | VBN | VBP |CC |MD |DT |RB |RBR | RBS $|J J| J J R|J J S| R P|-L R B-|-R R B-|W D T| T O|:|</ s>)$ とかける。(スペースの都合上改行を入れている) 次に複数形の場合は (DT | IN |CC | , |RB |RBR |RBS |RP |VB | VBD |VBZ | VBP | . | -LRB-|WDT|TO| : |NNS|-RRB-|PRP\$|<S>) ( (JJ|NN|NNP $|C D| V B G|V B N| ' ~ ') *(N N S)$ (CD)?) (, | . I IN |VB | VBD |VBZ | VBN |VBP |CC |MD |DT |RB |RBR | RBS |JJ|JJR|JJS|RP|-LRB-|-RRB-|WDT|TO| : |</s>|NN) となる。ただし、“<s>”を文頭、“<//s>”を文末の意味として利用している。 ## B UMLS からの辞書作成 今回テストデータとして利用した GENIA コーパスに直接対応する辞書は存在しない。そこで本研究では UMLS [16] の情報を変換し、今回の擬似データ生成に利用する辞書を作成した。利用した UMLS のバージョンは 2020AA であり、その知識グラフの全体を利用した。ただし、問題の多かった “HGNC", “OMIM", "NCI", "SNOMEDCT_US", "PDQ", "CHV", "LNC" の知識グラフについては除外した。次に GENIA コーパスにおける五つのそれぞれのカテゴリ (protein, DNA, RNA, cell type, cell line) に対して、 そのカテゴリの語句をどのように取得したかを述べる。まず “protein”に対しては、“Proteins” C0033684 及びその子孫を利用した。さらにそこから後述の “DNA", “RNA" の語句として得られる UMLS Concept を取り除 いた。ただし、ここで UMLS Sematic Type T116: “Amino Acid, Peptide, or Protein", T087: “Amino Acid Sequence" に含まれる UMLS Concept だけを残した。“DNA”に関しては C0012854: "DNA", C0162326: "DNA Sequence", C0008633: “Chromosomes", C0019652: “Histones”及びその子孫を利用し、“DNA", "DNA Sequence" 及び、“Histones” でない “Chromosomes”を“DNA” のカテゴリとして利用した。ただし、 UMLS Sematic Type T028: "Gene or Genome", T114: "Nucleic Acid, Nucleoside, or Nucleotide", T086: "Nucleotide Sequence", T026: “Cell Component”に含まれる UMLS Concept だけを残した。“RNA”に関しては C0035668: “RNA”及びその子孫を利用した。ただし、UMLS Sematic Type T114: “Nucleic Acid, Nucleoside, or Nucleotide", T086: "Nucleotide Sequence" に含まれる UMLS Concept のみに限定した。“cell type” に関しては UMLS Semantic Type が “T025”であるような UMLS Conceptを利用した。“cell line”に関しては C0007600: “Cultured Cell Line” 及びその子孫を利用した。 その後、複数のカテゴリに含まれるような曖昧性のある語句を除去した。例えば“IL2”という文字列は、 “Interleukin-2" というタンパク質名としても、“IL2 gene”という遺伝子名としても登録されている。この段階でのそれぞれのカテゴリの語句数は表 4 のとおりである。また、辞書マッチの recall を上げるために inflect ${ }^{5)}$ という python ライブラリを利用して、それぞれの語句に対して複数形を辞書に追加した。 表 4 UMLS を元にした辞書中の各カテゴリごとの語彙数 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-16.pdf
# 翻訳精度に基づく固有名詞の翻訳手法の研究 高井公一 ${ }^{\dagger}$ 服部元 ${ }^{\ddagger}$ 米山暁夫 $\ddagger$ 安田圭志 $\dagger$ 須藤克仁 $\dagger$ 中村哲 $\dagger$ †奈良先端科学技術大学院大学 ‡株式会社 KDDI 総合研究所 takai.koichi.tc1@is.naist.jp, \{ge-hattori, yoneyama\}@kddi-research.jp ke-yasuda@dsc.naist.jp, \{sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 近年における音声言語処理の技術の発展に伴い,機械翻訳を介した言語間音声コミュニケーションは旅行者にとって現実的なものとなりつつある。また,観光者が訪れるスポット,ランドマーク,飲食店などの固有名詞が多く存在し,そのカバレージが翻訳システムの精度に影響を及ぼすことが分かっている.この固有名詞の課題の対処として,クラスと言われる単語のグループを用いた手法や,サブワー ドモデルなど研究されてきたが,実用では,固有名詞対訳辞書の作成コストと, 固有名詞クラスのアノテーションのコストの問題が課題である. 本論文では,まず,クラス言語モデルに必要なアノテーションの課題を解決し, 固有名詞クラス定義を自動推定する手法を提案する。ここでは,日英対訳コーパスから自動翻訳指標を用いて,最適な固有名詞クラス定義を決定する。次に,機械翻訳の実験検証として, 入力文の固有名詞クラスの推定結果により,固有名詞を正確に訳せるクラス言語モデルに基づく機械翻訳と,サブワードに基づく機械翻訳を使い分けることで,訳質が向上することを JParaCrawl の日英対訳コーパスを用いた実験で確認する. ## 2 関連研究 固有名詞に着目した機械翻訳のアプローチは大別して2つに分けられる. 1 つ目は,サブワードモデルのアプローチで,学習コーパスの単語をサブワー ドもしくは文字単位に細かく分割し,未知語となる語彙を減らす手法 [1-4]である.2つ目は,未知語を既知語に置き換え,既知語を含む文でニューラル機械翻訳(Neural Machine Translation:NMT)を行い,翻訳結果から置き換えた単語を戻す手法 [5] である。 サブワードを使用する手法は,未知語となる固有名詞が含まれていても文全体の訳は崩すことなく,流暢に翻訳できる。しかしながら,この手法では固有名詞自体の訳語が翻訳結果に出力されない問題や,同表記の固有名詞の訳語など多義性の問題から,翻訳の適切さとしての課題が残る。 次に,既知語への置き換え手法は,未知語を事前学習したクラスの中から選択し, 指定したクラスの別の固有名詞の既知語に置き換えて処理する。既知語は翻訳モデルの学習コーパスの中から選択するため,学習量が十分なことから,文全体の訳も崩れず適切に翻訳できる. そして, 未知語である固有名詞の翻訳に関しては,人手で対訳辞書を作成するため,正確に翻訳することができる.ここで,クラス言語モデルの利用は,音声認識の分野で,未知語の問題を解決するために用いられてきた [6-9]. この考えは,単語クラス付き対訳辞書を用いる手法などにより,コーパスベースの機械翻訳にも取り入れられている [10-13]. しかしながら,その多くは人手によりアノテーションされた学習データを用いて,教師あり学習を行う方法で,学習コーパスを用意する必要がある点で課題が残る。 ## 3 提案手法 本研究では,正確な固有名詞の翻訳が行える既知語への置き換え手法を用いる。まず,人手によるアノテーションを行わなくとも固有表現認識 (Named Entity Recognition:NER) モデルの学習が行える手法を提案する.従来研究と同様に,教師あり学習の手法を用いるが,固有名詞のクラス定義をするための学習データを自動構築する。また比較的簡単な原言語と目的言語の対訳辞書の作成は人手で行い,翻訳モデルに多数存在する固有名詞クラスから自動推定する仕組みを構築する。 さらに学習した NER モデルにより,NMT モデルを切り替え,訳質を向上する手法を提案する. 図 1 提案手法の処理概要 図 1 に示す通り,提案手法は,データ構築処理部,固有名詞クラス定義の推定モデル学習,およびモデル切り替え処理部からなる. データ構築処理部は,日英対訳コーパスから,自動翻訳指標を活用して,最適な固有名詞クラス定義を決定する。作成した推定モデルのデータから,固有名詞クラス定義の推定モデルを学習する. そしてモデル切り替え処理部は,実際に翻訳処理する際の仕組みを想定し, SentencePiece モデルと既知語への置き換えモデルの切り替えを NER モデルで分岐する。学習データは, モデル切り替え処理部にある翻訳モデルの学習や適応は行わず,固有名詞クラス定義推定モデルの学習にのみ活用する。これらの 3 つの処理の詳細を説明する。 ## 3.1 データ構築 図 2 に,データ構築の処理手順を示す。日英対訳コーパスをベースに,日本語と英語の両言語に固有名詞が含まれる文を抽出する,次に,複数存在する固有名詞クラスの中から最も翻訳性能が高くなるクラスを,翻訳の自動評価により決定して,学習デー タを作成する. 固有名詞クラス定義の自動付与の手順を以下に記す。 1. 固有名詞クラス定義のうち一つを選択し,既知語置き換えモデルに固有名詞を登録する。 2. 選定した 1000 文の原言語文から,上記の 1 の辞書で,既知語置き換えモデルで翻訳する。 3. 1 で登録した固有名詞を辞書から取り除く. 4. 上記の 1 から 3 をすべての固有名詞クラスに対して行う. そして,上記の手順で得られた固有名詞クラスごとの翻訳結果に対して自動評価を行う。目的言語文を 図 2 データ構築処理 参照訳として,次式により最適な固有名詞クラス $ \hat{c}=S_{B L E U}\left(T_{R E F}, T_{M T}^{c}\right) $ $C , T_{R E F}, T_{M T}^{c}$ ,はそれぞれ,固有名詞クラスの集合,対訳コーパス中の目的言語文,固有名詞クラス定義 $C$ としたときの翻訳結果である. $S_{B L E U}$ は, $T_{R E F}, T_{M T}^{c}$ の自動評価指標 BLEU スコア [14] で次式により計算する. $ B L E U=B P_{B L E U} \times \exp \left(\frac{1}{N} \sum_{n=1}^{N} \log (P n)\right) $ ここで, $N=4, B P_{B L E U}$ は翻訳文が参照文と比較して短い場合に用いるぺナルティ係数である. $B P_{B L E U}$ は翻訳文の単語数を $c$, 正解文の単語数を $r$ とし,以下の式で計算される. $ B P_{B L E U}= \begin{cases}1 & (c>r) \\ e^{1-\frac{r}{c}} & (c \leq r)\end{cases} $ このようにして対訳コーパスの原言語文に対して, $\hat{c}$ を付与することができる. ## 3.2 固有名詞のクラス推定モデル 前節の学習データから,固有名詞クラスを付与する NER モデルを学習する。NER モデルは指定した単語に対して,単語自身の表層標記情報や周囲の単語列の情報を用いて,固有名詞クラスを推定する手法が研究されてきた.そして,固有名詞のクラス定義は翻訳エンジンごとに定義されており,詳細なものでは形態素情報が用いられている. 本研究の NER モデルでは,入力文に含まれる各単語をそれぞれ $N+1$ カテゴリ(翻訳システムによって定義され 1)固有名詞クラスの選択により訳語が変化する原言語文に限る るクラス数 $N$ と,それ以外のクラス)に分類する形で学習する. NER モデルに関しては, 従来研究の手法をいくつか用いて検証する。 ## 3.3 モデル切り替え処理 実際の翻訳実行には,固有名詞を正確に翻訳するために,既知語への置き換えモデルと SentencePiece モデルを切り替えて,ハイブリッド処理を行う. 図 1 の (3) にある,原言語文を NER 推定し,推定結果により処理を分岐する.推定結果が固有名詞クラスの場合は,既知語への置き換えモデルを用いる. 固有名詞と推定した固有名詞クラスを辞書に登録し,同クラスの代表単語と置き換えて文全体を翻訳する.そして,翻訳結果の代表単語を登録した固有名詞に戻して訳語を得る。一方,推定結果が固有名詞クラス以外の場合は, SentencePiece モデルで文全体を翻訳し,訳語を得る。 ## 4 実験 本実験では日英機械翻訳を対象に,提案手法の有効性を確認する。また手法の有効性の確認のため, ハイブリッド手法としない個々のモデルで比較評価する. 全評価データを SentencePiece モデルに入力した場合をべースラインとする。 そして既知語への置き換え手法の比較として,評価データの固有名詞の存在を既知として,固有名詞クラスを人手で付与したもので検証した. ## 4.1 実験条件 既知語への置き換えモデルは,国立研究開発法人情報通信研究機構のみんなの自動翻訳@ $\mathrm{TexTra}^{2}$ )を使用した. Transformer モデルのニューラル機械翻訳で固有名詞のクラスを選択し,辞書登録機能がある. そして SentencePiece モデルは,JParaCrawl の日英対訳コーパスの学習済みモデル ${ }^{3}$ を使用した。 NER モデルの学習手法は,3つの手法を検証した. 1 つ目は,BiLSTM-CRF $[15,16]$ で,推定対処の単語を, 前方向と後方向からそれぞれ単語列を順列処理する手法である.2つ目は, $\mathrm{GRN}^{4}$ [17] で,分散表現化 [18] した単語を入力することで分類する.分散表現の取り組みは,テキスト分類 $[19,20]$ にも  表 1 ハイパーパラメータ 表 2 固有名詞クラス定義と学習データ数 応用された手法である.3つ目は,BERT-NER [21] で,マルチレイヤーTramsformer [22] である. 近年の研究で, BERT モデルをべースした研究が活発で, NER タスクの研究もなされている [23]. 本研究では,事前学習されたモデルをべースに,構築したコーパスを用いて FineTuning して適応する. そして BiLSTM-CRF と GRNでは, 前述の 1000 文の学習コーパスを用いて学習を行った. BERT-NER は,事前学習された 12 層, 隠れ層次元数 768 のモデル5)を用い,前述の 1000 文の学習コーパスで FineTuning して学習させた. 表 2 に, 本研究の実験で使用した NER モデルのハイパーパラメータを示す. 学習コーパスはオープンデータの JParaCrawl の日英対訳コーパスを使用した. 1000 万文の JParaCrawl の日英対訳コーパスから,日本語と英語の両言語に固有名詞が含まれる文を抽出し,さらにその中から,自動算出した訳語の精度 [24] の高い 1000 文を選定して,学習コーパスとした. 固有名詞クラス定義の種類は,評価データの旅行ドメインで利用する 14 クラスを用い,最終的に得られた固有名詞クラス定義と学習データ数を表 2 に示す. データセットの中で出現割合が最も多いクラスは日本人の姓で,最も少ないクラスはキャラクター名であった. ## 4.2 評価方法 NER モデルの性能を 3 つの指標で評価する. 1 つ目が既知語置換率,2つ目が固有名詞正解率,そして3つ目が BLEUによる自動評価である. NER モ  表 3 固有名詞クラス推定と BLEU 評価 & & BLEU \\ (ベースライン) & & & \\ BiLSTM-CRF & 24.29 & 89.86 & 37.40 \\ GRN & 45.71 & 91.30 & 35.22 \\ BERT-NER & $\mathbf{9 4 . 2 9}$ & $\mathbf{9 8 . 5 5}$ & $\mathbf{3 7 . 5 5}$ \\ デルは対象単語のクラス推定を,15 クラス(固有名詞クラス 14 と, 固有名詞でないクラス)から推定し,固有名詞クラスと推定した場合は既知語への置き換えモデルを用いて翻訳する。既知語置換率は,固有名詞クラスを推定できた率である。 次に,辞書登録した場合の固有名詞の翻訳の正確さの指標とし $\tau$ ,固有名詞正解率を算出する.最後に,固有名詞の翻訳を含めた文全体の翻訳の評価として,自動評価指標の BLEU 評価を行う. NER 推定結果が自動翻訳全体に及ぼす影響を. 人手で作成した目的言語文の訳語を用いて評価比較する。 評価の対訳データは,独自に収集した,岐阜タクシーでの翻訳社会実証データの 2379 文の中から,両言語に固有名詞が含まれる 261 文を選定し, そこから評価データとして 69 文をランダムに抽出した.固有名詞辞書のデータ作成は,翻訳者が人手で作成し,複数のクラス定義を付与し,最終的に 285 件をエントリーした. ## 4.3 実験結果 表 3 は,固有名詞に人手でアノテーション付与する手法, ベースラインの SentencePiece モデル,および提案手法の NER モデルによるハイブリッド手法の比較評価結果である. 2 列目に既知語置換率, 3 列目に固有名詞正解率, 4 列目に BLEU スコアを記述した。既知語への置換手法は, 全ての条件において,基盤となる NMT と対訳辞書のエントリーは同じで,クラスの付与方法のみが異なる. 表 3 から,人手付与の手法は,アノテーションのコストは必要になるが,固有名詞正解率が $100 \%$ と全て正確に翻訳ができて,BLEU スコアも最も高い数值であった. 次に,固有名詞のアノテーション情報のない SentencePiece モデルは, 固有名詞正解率が $89.86 \%$ で,BLEU スコアが $35.73 \%$ と高精度であった。この場合は自動で固有名詞判定は行わないが,翻訳結果から事後分析し, 固有名詞正解率を算出した. 固有名詞正解率が高い理由は,評価データには「日本」 や「岐阜」など比較的収集しやすい用語があり,評価データの一部が,学習データの JParaCrawl に含まれていたと考えられる。付録の表 4 に評価結果の一部を示す。一方で,人手付与と比較すると,固有名詞正解率と BLEU スコアが低く,評価データの固有名詞が $10 \%$ 近くが訳せていない. 提案手法では, BiLSTM-CRF と GRN は,既知語置換率は低かったが,固有名詞正解率がベースラインより軽微改善できた。最も評価結果が良かったものは BERT-NER で,既知語置換率が $94.29 \%$ と非常に高い検出率となった. そして固有名詞正解率が $98.55 \%$ と高精度で, SentencePiece モデルと比べて大きく改善し, アノテーションコストが必要な人手付与に近い精度が得られた. さらに BLEU スコアについても,人手付与には劣るが,SentencePiece モデルよりも高い訳質が得られた. 自動構築した NER モデルによるハイブリッド手法は,アノテーションコストなしに,人手付与の手法に近い性能と言える. ## 5 まとめ 本論文では,クラスベースの翻訳システムへの利用を目的とし,固有名詞クラスを自動的に付与する方法を提案した. 本手法は,対訳コーパスと翻訳システムとを用いて,学習データを構築し,次に構築したデータから NER モデルによる固有名詞クラス推定モデルを学習した。評価実験では,このモデルから自動的にテストセットの固有名詞を推定し,推定した固有名詞クラスをニューラル機械翻訳の辞書に登録し,得られた翻訳結果を自動評価した.実験結果によると,提案手法による固有名詞クラス推定の既知語置換率が $94.29 \%$ で,自動評価評価も人手のアノテーションに迫るスコアで,高精度な結果が得られた。これらの結果から,提案手法は,人手による学習データの作成なしに,クラスベース翻訳システムの固有名詞辞書拡張を可能にしたと言える.今後の検討課題として,コーパスサイズを増やして固有名詞クラス推定の精度を改善する予定である. ## 6 謝辞 本研究は,総務省「グローバルコミュニケーション計画の推進 -多言語音声翻訳技術の研究開発及び社会実証- I. 多言語音声翻訳技術の研究開発」の一環で収集したデータにより実施したものです。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), p. 1715-1725, 2016. [2] Z. Chen Q.V. Le M. Norouzi W.Macherey M. Krikun Y. Cao Q. Gao K. Macherey J.Klingner A. Shah M. Johnson X. Liu L. Kaiser S.Gouws Y. Kato T. Kudo H. Kazawa K. Stevens G.Kurian N. Patil W. Wang C. Young J. Smith J. Riesa A. Rudnick O. Vinyals G. Corrado M. Hughes Y. Wu, M. Schuster and J.Dean. Google' s neural machine translation system:bridging the gap between human and machinetranslation, 2016.[Online; accessed 28-December-2017]. http://www.pluto.ai.kyutech.ac.jp/NLP/. [3] Minh-Thang Luong and Christopher D. Manning. Achieving open vocabulary neural machine translation with hybridword-character models. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), p. 1054-1063, 2016. [4] M.R. Costa-Juss'a and J.A.R. Fonollosa. Characterbased neural machine translation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), p. 357-361, 2016. [5] Xiaoqing Li, Jiajun Zhang, and Chengqing Zong. Towards zero unknown word in neural machine translation. In Proceedings of the 25th Annual Meeting of the International Joint Conferences on Artificial Intelligence (IJCAI), p. 2852-2858, 2016. [6] Issam Bazzi and James R. Glass. Modeling out-ofvocabulary words for robust speech recognition. In ICSLP, 2000. [7] Hiroaki K. Genichiro K. Yoshihiko O. Yoshinori S. Yamamoto, $\mathrm{H}$. Out-of-vocabulary word recognition with a hierarchical language model using multiple markov model. In IEICE D-II 87(2), pp. 2104-2111, 2004. [8] Shuntaro I. Yoshinori S. Yamamoto, H. Multi-class composite n-gram based on connection. In ICASSP, p. 533-536, 1999. [9] Welly NAPTALI, Masatoshi TSUCHIYA, and Seiichi NAKAGAWA. Class based n-gram language model for new words using out-of-vocabulary similarity. In IEICE, p. 2308-2317, 2012. [10] Masatsugu Tonoike, Mitsuhiro Kida, Toshihiro Takagi, Yasuhiro Sasaki, Takehito Utsuro, and Satoshi Sato. Translation estimation for technical terms using corpus collected from the web. In newblock In: Proceedings of the Pacific Association for Computational Linguistics, pp. 325-331, 2005. [11] Keiji Yasuda, Panikos Heracleous, Akio Ishikawa, Masayuki Hashimoto, Kazunori Matsumoto, and Fumiaki Sugaya. Building a location dependent dictionary for speech translation systems. In CICLING, 2017. [12] Xuezhe Ma and Eduard Hovy. End-to-end sequence labeling via bi-directional lstm-cnns-crf. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), p. 1064-1074, 2016. [13] Sebastien Jean, Kyunghyun Cho, Yoshua Bengio, and Roland Memisevic. Onusing very large target vocabulary for neuralmachine translation. In 28th NIPS, p. 1-10, 2014. [14] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), 2002. [15] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In $N A A C L-H L T$, p. 260-270, 2016. [16] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In NAACLHLT, p. 2227-2237, 2018. [17] G. Dingy J. Louz Y. Zhangx H. Cheny, Z. Linz and B. Karlssonz. Grn: Gated relation network to enhance convolutional neural network for named entity recognition. 2019. [18] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems 26. Curran Associates, 2013. [19] Yoon Kim. Convolutional neural networks for sentence classification. In $E M N L P$, p. 1746-1751, 2014. [20] Nal Kalchbrenner, Edward Grefenstette, and Phil Blunsom. Convolutional neural networks for modeling sentences. In COLING, p. 655-665, 2014. [21] Mikhail Arkhipov, Maria Trofimova, Yuri Kuratov, and Alexey Sorokin. Tuning multilingual transformers for named entity recognition on slavic languages. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), p. 89-93, 2019. [22] Noam S. Niki P. Jakob U. Llion J. Aidan N G. Łukasz K. Ashish, V. and P. Illia. bidirectional transformers for language understanding. In In Advances in neural information processing systems, p. 5998-6008, 2017. [23] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. bidirectional transformers for language understanding. In arXiv preprint arXiv:1810.04805, 2018. [24] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. Jparacrawl: A large scale web-based english-japanese parallel corpus. In Proceedings of the 12th Conference on Language Resources and Evaluation(LREC 2020), p. 3603-3609, 2020. ## A 付録 表 4 例:評価文と翻訳結果 原言語文:あと二三分で一夜城に着きます 原言語文 : 川のこちらが犬山市です。 原言語文:何回か行きました。朴葉味噌か肉の料理がおいしかった。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-17.pdf
# 小説あらすじを用いて学習した系列ラベリングモデルによる 小説本文からの人物情報抽出の性能検証 岡裕二 香川大学大学院工学研究科 s20g460@stu.kagawa-u.ac.jp } 安藤一秋 香川大学創造工学部 ando.kazuaki@kagawa-u.ac.jp ## 1 はじめに 近年,電子書籍や小説投稿サイトの発展により,小説を読む際の場所や時間の制限が緩和されると共に,小説の数も増加し続けている。小説の数が増えることで個人の埕好にあった小説も増える可能性があるが,膨大な数の小説の中から個人の嗜好にあった作品を発見する労力は増大していると考えられる. 書籍を取り扱う $\mathrm{EC}$ サイトや小説投稿サイトには,作者やジャンルなど,特定の情報に基づく検索機能が実装されてはいるが,小説の内容に踏み込んだ検索機能は実装されていない. 個人の嗜好は,「ハッピーエンド」や「敵が仲間になる」などの展開に関する埕好と,「銀髪赤目の少年」や「長身のメイド」などの登場人物に関する嗜好に分けることができる. 本研究では,小説内の登場人物情報を体系的に抽出することで,登場人物情報による小説検索,登場人物情報を豊富に取り入れた小説のあらすじ生成, 人物関係図の自動生成などを目指している。 筆者らの先行研究 [1] では,商業小説のあらすじテキストにタグ付けしてデータセットを構築し, 深層学習モデルと CRF(Conditional Random Fields)を組み合わせた系列ラベリングモデルにより,あらすじテキストから人名,性別,容姿性格,職業などの登場人物情報を自動抽出する手法を提案した. 本稿では,あらすじテキストで学習した系列ラベリングモデルを Web 小説の本文に適用し, 訓練データおよび提案モデルの小説本文に対する抽出性能について検証する。 ## 2 小説本文に基づくテストデータの 構築 小説本文を収集して,テストデータを構築する方法について述べる. ## 2.1 小説本文の収集 筆者らの先行研究 [1] で構築したデータセットは,商業小説のあらましを利用しているため,本文デー タを利用することができない,そこで,「小説家になろう」サイトから本文データを収集する。 小説本文の収集には,「小説家になろう」を運営している株式会社ヒナプロジェクトが提供する Web API(なろう小説 API)を用いる。なろう小説 API は,ジャンル別や人気の高い順などの条件により,「小説家になろう」に投稿されている小説の各種データを抽出できるが,本文データを抽出することはできない. そこで,APIを使用して小説のジャンル,ID,タイトル,著者名,あらすじを収集し,収集した小説の IDを基に,クローリングによって本文データを収集する,収集対象は,長編小説の本文とする. ## 2.2 テストデータの構築方法 本稿での評価に用いるテストデータは, 次の手順で構築する。なお,タグおよびタグ付け方法については,先行研究 [1] と同様である. 1.「小説家になろう」から収集した長編小説の本文のうち,三話までのテキストを 1 文ずつ形態素解析する. 2. 各形態素に対して,以下のルールでタグ付けする.タグの形式には IOB 2 タグ形式を用いる. ・名前に名前タグ(NAME)を付与例 : 西尾,信長,シャルル・マーニュ ・性別表現に性別タグ(MF)を付与例:男,美男子,美女,乙女,女の子 ・年齢表現に年齢タグ(AGE)を付与例:16歳,少年,お婆さん,幼い,高校生 ・容姿や特性表現に状態タグ(STATE)を付与 例 : 白い髪, 元気, 高飛車, 天才, 職人気質 ・職業や立場表現に能力タグ(PRO)を付与例:竜飼い,仙女,最高権限者,メンバー, 国王 ・組織・種族名に所属タグ(AFF)を付与例: 鳳凰学園杖術部, 日本政府, 討伐軍, エルフ ・以上に当てはまらない人物情報にその他タグ (OTHER)を付与 例:異星人,神,元凶,気鋭,ペンギン ・地名や建物名に場所タグ(PLACE)を付与例: ムー大陸, 日本, パリ, 礼拝堂, 魔法学校 ・人物関係表現に関係タグ(REL)を付与例: 兄, 親, 敵, 相棒, 結婚 ・それ以外のものに O タグを付与 先行研究 [1] と同様, 直接的な人物情報ではないが,地名や建物名,人物関係表現についても,今後の応用を考慮してタグ付けする。 ## 3 検証に用いる深層学習モデル 性能評価に用いるモデルについて説明する。 ## 3.1 検証モデル 検証モデルには, 先行研究 [1] と同様, Huang らが提案したモデル (BiLSTM-CRF) [2], Ma らが提案したモデル (BiLSTM-CNN-CRF) [3], Lample らが提案したモデル (BiLSTM-CRF-L) [4], Misawa らが提案したモデル (Char-BiLSTM-CRF) [5]の4つの深層学習モデルを採用する。 Huang らの BiLSTM-CRF は,文中の単語に対する word embeddings を Bidirectional LSTM (BiLSTM) に入力し, 得られた単語べクトルを素性の代わりに CRF に入力することで固有表現抽出するモデルである. Ma らの BiLSTM-CNN-CRF と Lample らの BiLSTM-CRF-Lは,BiLSTM-CRFに対して,注目単語に含まれる文字情報を利用することで性能向上を図ったモデルである.BiLSTM-CNN-CRF は,注目単語に含まれる文字を CNN に入力して得られた単語ベクトルを word embeddings に結合し, BiLSTM-CRFに入力することで固有表現抽出する. BiLSTM-CRF-L は,BiLSTM-CNN-CRF の CNN の代わりに,注目単語に含まれる文字を Char-BiLSTM に入力して得られた単語ベクトルを word embeddings に結合し,BiLSTM-CRFに入力することで固有表現抽出する. Misawa らの Char-BiLSTM-CRF は,文字単位でラベリングするモデルであり,文字のベクトルと文字を含む単語のべクトルを BiLSTM に入力することで固有表現抽出するモデルである. 表 1 に深層学習モデルで用いたパラメータを示す. Dropout は,BiLSTMへの入力の前と後に適用した. 表 1 の下部に Ma らの BiLSTM-CNN-CRF と Lample らの BiLSTM-CRF-L で用いたパラメータを示す. 単語ベクトルとして用いる分散表現には,日本語 Wikipedia の本文全文で事前学習されたもの [6] を用意した。事前学習に用いたパラメータは表 2 に示すものが使われている. 単語ベクトルおよび文字ベクトルはモデルの学習とともに値を更新する. 表 1 深層学習モデルのハイパーパラメータ 表 2 事前学習した単語分散表現のハイパーパラメータ ## 3.2 品詞・品詞細分類情報の活用 Aguilar らの研究 [7] により, 深層学習モデルに品詞情報を追加することで,ソーシャルメディア中のテキストから構築された WNUT2017 データセットに対する抽出性能が向上したと述べられている. 先行研究 [1] と同様, 本稿でも, 品詞と品詞細分類で それぞれランダムに初期化した品詞べクトルを利用し, 有効性を検証する,単語ベクトルや文字べクトルを BiLSTM に入力する際に同時に入力し, モデルの学習とともに品詞べクトルの値を更新する. 次元数は, 品詞および品詞細分類でそれぞれ 5 と 10 で実験する. ## 4 評価実験 ## 4.1 評価方法 小説本文で構築したテストデータに対して,4つの深層学習モデルと, それぞれのモデルに品詞・品詞細分類の情報を付与したモデルの抽出性能を比較する. 抽出性能は, 適合率, 再現率, $\mathrm{F}$ 値を評価尺度に利用する. 人手でタグ付けした結果と機械学習モデルがラベリングした結果を比較し, 完全一致した場合のみを正解と判断する. ## 4.2 データセット 訓練データと開発データは, 先行研究 [1] で構築した,3,679 文で構成される商業小説のあらすじデータセットを 9:1 に分割して利用した。 テストデータを構築するため,まず,なろう小説 APIを用いて,ジャンルがハイファンタジー,またはローファンタジーであり,ランキング上位 2,500 件に入るという条件で収集した長編小説の中からランダムに 8 作品を選出した. そして, 各小説の三話までのテキストを MeCab[8] で単語分割し, 人手でタグ付けすることにより,3,127 文で構成されるテストデータを構築した。 ## 4.3 実験結果 実験結果を表 3 に示す. 表 3 に示すモデルは,品詞・品詞細分類の情報を付与していない 4 つの深層学習モデルと, 品詞・品詞細分類の情報を付与したモデルの中で最高性能のモデル(BiLSTM-CRF- の次元数を示す. 品詞と品詞細分類それぞれに次元が割り当てられるので,実際に付与される次元数は @の 2 倍となる. 太字部分は各ラベルでの最良 $\mathrm{F}$ 值である. 表 3 より,PLACE(地名・建物名)と REL(関係表現)を除く全てのラベルでBiLSTM-CRF-pos10が最良 $\mathrm{F}$ 値,または最良に近い $\mathrm{F}$ 値であることが確認できる.また, MF(性別表現)と AGE(年齢表現) については, どのモデルでも 9 割近い $\mathrm{F}$ 值となった. しかし, 他のラベルでは, 7 割以下の $\mathrm{F}$ 値となっており,特にSTATE(容姿・特性表現), AFF(組織・種族名)と PLACE(地名・建物名)は,最良 $\mathrm{F}$ 值であっても 5 割以下と非常に低い. 次に,小説本文に対する抽出性能と比較するため, 先行研究 [1] であらすじデータセットに対して全体の最良性能を得た BiLSTM-CRF の抽出性能を表 4 に示す。表 4 は,あらすじデータの 8 割を訓練データ,1 割ずつを開発データとテストデー タに分割し,十分割交差検証を行った結果の平均を算出している. 本稿での最良性能を確認した BiLSTM-CRF-pos10 の抽出性能と比較すると, MF (性別表現)とOTHER(その他の人物情報)以外のラベルにおいて,抽出性能が低下している.AGE (年齢表現)については軽微であるが,それ以外のラベルは大幅な性能の低下となった。 ## 5 考察 あらすじと本文において抽出性能差が生じる要因について考察する. 抽出性能が高い MF(性別表現) と AGE(年齢表現)は,他の人物情報と比べて,表現自体に多様性が少ないことから,高い抽出性能が維持されていると考えられる. OTHER(その他の人物情報)に関しては,あらすじに出現する表現が多様であったため, 本文に出現する表現を包含でき,結果として,あらすじに対する性能より高くなったと考えられる. STATE(容姿・特性表現)に関しては, 容姿に関する記述法が複数あったり, 色が異なるだけで別の形態素として認識されることもあるため,抽出性能が低下したと考えられる.NAME(人名), AFF (組織・種族名), PLACE (地名・建物名) に関しては, 固有の表現が多く, 基本的に同作品や同じ世界を共有しない限り, 同じ名前が使われることがないため, 抽出性能が低下したと考えられる。 また人名に限定すれば「姫」や「友」など他のラべルに付与される可能性の高い形態素も出現することもあるため,性能が低下していると考えられる。 次に,抽出エラーについて分析する。 抽出エラー を以下の 5 種類に分類し,各割合を算出する。 ・人物情報に O タグを振る間違い (ne2oMiss) ・人物情報ではない部分に人物情報タグを振ってしまう間違い (o2neMiss) ・抽出範囲は正確だが,人物情報タグの種類を間違えている (classMiss) 表 3 実験結果 表 4 あらすじデータに対する最良モデル (BiLSTM-CRF) の抽出性能 $\begin{array}{llll}\text { MF } \quad 96.06 & 96.03 \quad 95.95\end{array}$ AGE $\quad 92.56 \quad 92.83 \quad 92.62$ $\begin{array}{llll}\text { STATE } \quad 58.85 & 57.72 \quad 57.98\end{array}$ $\begin{array}{llll}\text { PRO } & 80.39 & 79.92 & 80.14\end{array}$ AFF $\quad 72.45 \quad 71.51 \quad 71.86$ OTHER $\quad 63.62 \quad 62.58 \quad 63.02$ $\begin{array}{llll}\text { PLACE } & 73.30 & 78.78 & 75.89\end{array}$ ・人物情報タグの種類は正確だが,抽出範囲を間違えている (rangeMiss) ・人物情報を一部含んでいるが,人物情報タグの種類と抽出範囲を間違えている (r\&cMiss) 最良性能モデルによる,あらすじデータに対する抽出ミスの割合と,本文データに対する抽出ミスの割合を図 1 に示す. 図 1 より,あらすじに対する抽出ミスと比べて,本文に対する抽出ミスは,人物情報ではない部分に人物情報タグを振ってしまう o2neMiss が多いことが確認できる。これは,「〜学校」などのような固有名詞として出てくる系列にはタグを付与しているが,単なる「学校」などの特定できない一般的な場所名にはタグを付与していないという訓練データに対するタグ付けの問題が影響していると考えられる。また,「主」という文字に対して「あるじ」と読むか「おも」と読むかでタグ付け対象か否かが変わることなども影響していると考えられる.また,ビクリやゴロリ,ガッなどの擬音が NAME(人名)として抽出されるミスが散見された.あらすじでは,短く端的に小説の内容を紹介する必要があるため, 副詞的用法が少なく, 結果として,本文にしか現れない用法にうまく対応できなかったと考えられる。 bilstm-crf bilstm-crf-pos10(main_text)図 1 あらすじと本文での最良性能モデルの抽出ミス割合の比較 ## 6 おわりに 本稿では,あらすじテキストで学習した系列ラベリングモデルを Web 小説の本文に適用し,訓練データおよび提案モデルの小説本文に対する抽出性能を検証した。性能評価の結果,BiLSTM-CRF に品詞・品詞細分類ベクトルを 10 次元ずつ付与したモデル(BiLSTM-CRF-pos10)が最良性能を得ることを確認した。また,あらすじを対象とした人物情報抽出の最良性能と比較した結果, MF (性別表現) と OTHER(その他の人物情報)については,本文を対象とした場合の抽出性能の方が高くなることを確認した. 他のラベルにおいては,AGE(年齢表現) の場合は軽微に,その他のラベルについては大幅に抽出性能が低下した. エラー分析の結果,本文を対象にした場合の抽出ミスは,人物情報ではない系列に,人物情報タグを付与するというミスが多いことを確認した。 あらすじデータを訓練データに利用する点については,あらすじには登場しない表現や構文が本文に出現する可能性があるため,すべてに対応できるとはいえない. しかし,一作品あたりの文数が本文よりも圧倒的に少なく,様々な作品を包含することで未知単語を減らすことができる可能性がある。本文データを訓練データに用いたモデルの性能が確認できていない現状,有用性を結論づけることは難しいため,今後検証を継続する必要がある。 ## 参考文献 [1] Yuji Oka and Kazuaki Ando. Extraction of novel character information from synopses of fantasy novels in japanese using sequence labeling. In Proceedings of the 34th Pacific Asia Conference on Language, Information and Computation, 2020. [2] Zhiheng Huang, Wei Xu, and Kai Yu. Bidirectional lstm-crf models for sequence tagging. In arXiv: 1508.01991, 2015. [3] Xuezhe Ma and Eduard Hovy. End-to-end sequence labeling via bi-directional lstm-cnns-crf. In Proceedings of the Annual Meeting of the Association for Computational Linguistics, 2016. [4] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Dyer Chris. Neural architectures for named entity recognition. In Proceedings of the North American Chapter of the Association for Computational Linguistics, 2016. [5] Shotaro Misawa, Motoki Taniguchi, Yasuhide Miura, and Tomoko Ohkuma. Character-based bidirectional lstm-crf with words and characters for japanese named entity recognition. In Proceedings of the First Workshop on Subword and Character Level Models in NLP, 2017. [6] 日本語Wikipedia エンティティベクトル, 2007. http://www.cl.ecei.tohoku.ac.jp/ m-suzuki/ jawiki_vector/. [7] Gustavo Aguilar, A. Pastor López-Monroy, Fabio A. González, and Thamar Solorio. Modeling noisiness to recognize named entities using multitask neural networks on social media. In Proceedings of the North American Chapter of the Association for Computational Linguistics, 2018. [8] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the Empirical Methods in Natural Language Processing, 2004.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-18.pdf
# 文法変分自己符号化器を用いた統語構造の連続的変換 折口希実 お茶の水女子大学 g1620512@is.ocha.ac.jp } Lis Kanashiro Pereira お茶の水女子大学 kanashiro.pereira@ocha.ac.jp } 小林一郎 お茶の水女子大学 koba@is.ocha.ac.jp ## 1 はじめに ニューラル言語モデル (NLM)[1] 及び word2vec[2] は,自然言語処理技術に大きな影響を及ぼし,多くの NLP アプリケーションの基盤構築に利用されている。一方で,それらは言語モデルを上手く表現するが,文の統語構造が十分に反映されているとはいえない。また自然言語を処理するのに用いられる再帰型ニューラルネットワーク (RNN) では,それ自身のアーキテクチュアの制約により,統語情報のような構造化情報を効果的に処理することができない. 深層学習のフレームワークで構造情報を処理する方法として, Kusuner ら [3] は離散な構造を持つデータを連続な値,つまり潜在空間における埋め込みべクトルとして扱うことができる,変分自己符号化器 (VAE) モデル [4] に基づいた新しい VAE である Grammar Variational Autoencoder (GVAE) を提案している。本研究では,GVAE モデルを改良し,自然言語文の統語構造を連続的に変換可能にし,ガウス分布によって表された潜在空間からサンプリングする点の変化によって連続的に統語構造を変換可能にする手法を開発する。 さらに,潜在空間にエンコー ドされたべクトルを使用し, 統語構造の観点から文の類似性を測定する方法を提案する. 本研究で開発する方法は,換言や構文変換、自然言語生成 (NLG) などの様々な自然言語のアプリケーションのための有効な基礎研究になると期待する. ## 2 関連研究 深層学習を用いて自然言語の統語構造に対するアプローチとして, Shi ら [5] は、エンコーダ-デコー ダモデルが構造情報を学習可能かどうかを調べ,原文の多くの構造の詳細が生成されたテキストにおいて十分でなく久落していることを示した. デコー ダは基本的に NLM のフレームワークに基づいて文を生成するため,明示的な構文情報の不足による非文が生成される場合が多くある。この背景を踏まえ て,構造に関する知識を活用して文生成の品質を向上させることを目的として,いくつかの研究がこの問題に取り組んできた.Bastings ら [6] は,グラフ畳み込みネットワーク (GCN)を使用して,統語構造を NMT のアテンションに基づくエンコーダ-デコーダモデルに組み込む方法を提案した. Chen ら [7] は, ソース側の構文木を,シーケンシャル表現と木構造表現の両方を学習する双方向ツリーエンコーダー とアテンションメカニズムを用いたソース側の構造が反映される(ツリーカバレッジ)モデルに明示的に組み込むことで,NMT モデルの改善を行った。 NLG の研究では, Deriu ら [8] は, 生成されたテキストの語彙の変動性と構造上の特徴を制御することにより,より多様な文を生成するための構造操作について提示している. Hu ら [9] は,VAE と敵対的生成ネットワーク (GAN)[10]を使用して,潜在空間での情報を操作することでテキスト生成において構文構造の改善を伴う制御を実現した. 本研究のように潜在空間において構造情報を扱う研究として,Bao ら [11] は,分散表現によって意味を扱う潜在空間のみを用いて文を生成することは構造情報を明示的にモデル化していないことを指摘しており,DSS-VAE と呼ばれる意味空間と構造空間のもつれを解消したそれぞれの空間から文を生成するVAEを提案している. ## 3 文法変分自己符号化器 Kusner ら [3] が提案した自己符号化器 (GVAE) は,入力として離散なデータを扱うことができる VAE モデルの一種であり,文法の生成規則も使用することが可能である.潜在空間のサンプリング点を僅かに変えることで離散情報である自然言語の統語構造をシームレスに変換することができる.彼らはその適用例として, 分子の化学構造を ASCII 符号の英数字で文字列化した表記法である SMILES 記法を用いた分子構造に対して連続的な表現および変換方法を示している. GVAE モデルの概要を図 1 に示す. 図 1 GVAE の概要. 潜在空間でサンプリングされた值に応じて,様々な構造の分子を生成できる。 ## 4 統語構造に対する GVAE GVAE を適用して自然言語の統語構造の類似性を潜在空間において計測可能としつつ,潜在空間でのサンプリングする値の変化を通じて与えられた文の統語構造の類似関係を制御し統語構造を変換する。 GVAE のフレームワークを自然言語の統語構造に適用する場合, Kusner ら [3] で示される SMILES 記法に基づいた分子に適用する場合とは異なり,自然言語文の統語構造は非終端記号の数と文法の生成規則数の両方の点でより複雑となる. 実際に,SMILES 記法では終端記号の数は 30 ,構文規則の数は 76 に対して,本研究で GVAE に用いた自然言語構文を処理するための実験設定では,前者として品詞情報を扱い,後者では短文を表現するための文脈自由文法の規則を採用したことから,それぞれ 27 と 320 となる1)しかし,これでは生成規則を適用させるための制約もなく, 非文となる統語構造を生成する可能性がある。そのためそれを回避するために,文法規則として確率文脈自由文法 (PCFG) を採用する. ## 4.1 GVAE の処理の流れ 以下,GVAE の処理の流れを説明する (図 2参照). Encoding 図 2 の(1)から(4)でされるプロセスがエンコーダーによって害行される。では,PCFG の生成規則が定義されている。では,自然言語文の統語構造を表す一連の終端記号がシステムに入力され,その入力シーケンスは viterbi parser ${ }^{2)}$ を使用してで定義された PCFG を用いて解析される. その後, 最も確率的に可能性の高い統語構造に変換され,前順走査によりこの構文木を一連の PCFG の生成規則に分解する. (3)では,構文木で使用された  規則が抽出され 1-hot ベクトルに変換される. 1-hot ベクトルの数は抽出された生成規則の数と同じであり,各ベクトルは用いられた規則を指し示している. (4)では,1-hot ベクトルは深層畳み込みニュー ラルネットワーク $(\mathrm{CNN})$ を介して潜在空間に表される. Decoding 図 2 の凶からで示されるプロセスがデコーダによって実行される。(5)では,まず最初にエンコードされたベクトルが潜在空間からサンプリングされ,次に複数の正規化されていないべクトルが再帰型ニューラルネットワーク (RNN) によって生成される. Last-in First-out (LIFO) スタックを使用することにより,最も可能性の高い PCFG の生成規則を取り出すことができ,(で出力されるように,取り出した規則の終端記号に基づいて統語構造を生成することができる. Training エンコーダの出力を $\mathbf{X}$ とし, 生成規則の総数を $K$ とする.デコーダでは,RNN の時間ステップ $t$ の最大値は $T_{\max }$ であり, 生成されたベクトルの集合は行列 $\mathbf{F} \in \mathbb{R}^{T_{\text {max }} \times K}$ として表す. 文法における非終端記号は $\alpha$ とし, 生成されたべクトルをマスクするべクトルは $\mathbf{F} \in \mathbb{R}^{T_{\max } \times K}$ である. 式 (1)で示されている分布は,時間ステップ $t$ でマスクされたベクトルから PCFG の生成規則をサンプリングするために用いられる。また, 式 (1)の $(t, k)$ は, 行列 $\mathbf{F}$ の $(t, k)$ 要素を指している. $\mathbf{z}$ は GVAE の潜在変数を表し, $m_{\alpha, k}$ は $k$ 番目の PCFG 規則と非終端記号 $\alpha$ の要素のベクトルに対するマスクベクトルを示す. $ p\left(\mathbf{x}_{t}=k \mid \alpha, \mathbf{z}\right)=\frac{m_{\alpha, k} \exp \left(f_{t k}\right)}{\sum_{j=1}^{K} m_{\alpha, k} \exp \left(f_{t j}\right)} $ $q(\mathbf{z} \mid \mathbf{X})$ はエンコーダーの出力である平均と分散パラメータを持つガウス分布である. 損失関数 $\mathscr{L}(\phi, \theta ; \mathbf{X})$ を推定するために必要な変分下限 (ELBO) は式 (2)のように計算される. $ \begin{array}{r} \mathscr{L}(\phi, \theta ; \mathbf{X})=\mathbb{E}_{q(\mathbf{z} \mid \mathbf{X})}\left[\log p_{\theta}(\mathbf{X}, \mathbf{z})\right. \\ \left.-\log q_{\phi}(\mathbf{z} \mid \mathbf{X})\right] \end{array} $ ## 4.2 統語構造の類似性 GVAE では,モデルの潜在空間はガウス分布で表されているため,分布からサンプリング值を徐々に変化させることで、入力構造から僅かに異なる統語構造を取得することができる。また,統語構造は潜在変数を反映していることから,統語構造の類似性は潜在変数べクトル $\mathrm{z}$ を使用することで測定でき & & & & $k$ from & \\ 図 2 自然言語の統語構造に対する GVAE のプロセス る。そのため, $\cos$ 類似度を適用してべクトルを計算することで統語構造の類似度を測定する手法としても利用可能となる. ## 5 実験 潜在空間で表されるガウス分布からのサンプリング点を徐々に変化させることによる統語構造の連続的変換および異なる統語構造の類似性を測定する方法を検証するための実験を行う. ## 5.1 実験設定 表 1 に実験設定を示す. パラメータは [3]を元にして epoch 数についてはは学習可能な最大値を取りました。本研究では,およそ 10 語程度の文章に絞って行なっており, MicrosoftCOCOデータセット ${ }^{3}$ からこの基準を満 図 3 統語構造 1 たす 6,668 の文を選択し,StanfordCoreNLP ${ }^{4}$ を用いて文を解析を行い,GVAE で使用される生成規則を構築した。また,PCFG を構築するために生成規則とその確率を計算して導出し,6668 文の解析に必要となる 320 の生成規則を取得した. ## 5.2 実験結果 統語構造の変換統語構造 1 'DT JJ NN VBZ VBG DT NN' (図 3 参照)を GVAE の入力としている. 3) https://cocodataset.org/home 4) https://stanfordnlp.github.io/CoreNLP/統語構造 1 の GVAE の出力結果を図 4 に示す. 2 次元ガウス分布として表される GVAE の潜在空間のサンプリング点の変化による統語構造の段階的な変化を示している.サンプリング点は、分散軸に従って 0.01 刻みで移動している. 図 4 から, 統語構造が徐々に変化する様子を視認することができる. 統語構造の類似性統語構造の類似性を, $\cos$ 類似度を用いて潜在変数 $\mathbf{z}$ で測定した. 図 5 は, 図 4 の中央に表示されている統語構造と各構造がどの程度類似しているかを示す。下平面の 2 軸の双方が平均値からの変化を指し,縦軸は $\cos$ 類似度を指す。表 2 は,統語構造を僅かに変化させていった際の $\cos$ 類似度を表している. 表 2 における文は統語構造に適当な単語を当てはめて作成した例文である。 表 2 統語構造の違いによる $\cos$ 類似度の変化 ## 5.3 考察 図 3 を力力して潜在変数のサンプリング点を徐々に変えることにより生成した 81 の統語構造が図 4 であり,実際の生成結果に緩やかな構造の変化が見られるかを検証する. サンプリング点が変更されていない場合において図 3 に示されている入力は,図 4 の中央に示されている構造と一致していることが確認できる. 図 4 から,潜在変数 $\mathbf{z}$ の値を徐々に変化させることで統語構造がスムーズに変換されているようにも見える。また,図 5 よりサンプリング点の 2 次元方向が分散に対して同じである場合,構造の類似性が高くなることがわかった.一方で,連続的な変換が起こっていないように見える箇所も確認した。例えば,下から4つ目で右から 2 つ目の交差点にある構造は,隣接する統語構造とはかなり異なっているように見えることがわかる. 図 4 統語構造 1 の連続的な変換 (サンプリング点は平均から 0.01 刻みで移動) 図 5 分散の変化による統語構造間での $\cos$ 類似度 また,別の統語構造を入力とした実験も行ったが図 4 と同様な結果を得た. 統語構造の連続的変換がうまくいっていない箇所がある原因として,訓練用のデータが不十分であったという可能性が考えられる. [3] におけるモデル訓練データ数は,文法の生成規則や終端記号数の点で自然言語のほうが化学式の構造よりも複雑であるにもかかわらず,本研究の 10 倍であり,よりシームレスな統語構造変換に関し てはモデルの訓練に十分なデータを増やす必要がある.また,表 2 から統語構造の変化が大きくなると $\cos$ 類似度が低下することが読み取れた。 ## 6 おわりに 本研究では,GVAEを改良し,潜在空間のサンプリング点を徐々に変更することで,自然言語文の統語構造をシームレスに変換できる手法を開発した。実験を通じて,入力文の統語構造から徐々に変化する構造を生成し,統語構造の類似性を潜在空間で表現されるべクトル間の $\cos$ 類似度によって測定できることを示した. 今後の課題として,統語構造のよりシームレスな変換を実現するために訓練データと文法規則の数を増やすことを考えている。さらに,提案手法を用いることで,複数文間における統語構造の類似性を正しく測定する手法を確立することを考えている。提案手法は,ほぼ同一の意味内容を保ちつつ大きく統語構造を変えない換言や文の類似性の測定,要約などの様々な研究に役立つと期待している. ## 参考文献 [1] Yoshua Bengio, Réjean Ducharme, and Pascal Vincent. A neural probabilistic language model. In T. K. Leen, T. G. Dietterich, and V. Tresp, editors, Advances in Neural Information Processing Systems 13, pp. 932-938. MIT Press, 2001. [2] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26, pp. 3111-3119. Curran Associates, Inc., 2013. [3] Matt J. Kusner, Brooks Paige, and José Miguel HernándezLobato. Grammar variational autoencoder. Vol. 70 of Proceedings of Machine Learning Research, pp. 19451954, International Convention Centre, Sydney, Australia, 06-11 Aug 2017. PMLR. [4] Diederik P. Kingma and Max Welling. Auto-encoding variational bayes. In Yoshua Bengio and Yann LeCun, editors, 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 14-16, 2014, Conference Track Proceedings, 2014. [5] Xing Shi, Inkit Padhi, and Kevin Knight. Does stringbased neural MT learn source syntax? In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1526-1534, Austin, Texas, November 2016. Association for Computational Linguistics. [6] Jasmijn Bastings, Ivan Titov, Wilker Aziz, Diego Marcheggiani, and Khalil Sima'an. Graph convolutional encoders for syntax-aware neural machine translation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1957-1967, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [7] Huadong Chen, Shujian Huang, David Chiang, and Jiajun Chen. Improved neural machine translation with a syntaxaware encoder and decoder. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1936-1945, Vancouver, Canada, July 2017. Association for Computational Linguistics. [8] Jan Milan Deriu and Mark Cieliebak. Syntactic manipulation for generating more diverse and interesting texts. In Proceedings of the 11th International Conference on Natural Language Generation, pp. 22-34, Tilburg University, The Netherlands, November 2018. Association for Computational Linguistics. [9] Zhiting Hu, Zichao Yang, Xiaodan Liang, Ruslan Salakhutdinov, and Eric P. Xing. Toward controlled generation of text. Vol. 70 of Proceedings of Machine Learning Research, pp. 1587-1596, International Convention Centre, Sydney, Australia, 06-11 Aug 2017. PMLR. [10] Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. In Z. Ghahramani, M. Welling, C. Cortes, N. D. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 27, pp. 2672-2680. Curran Associates, Inc., 2014. [11] Yu Bao, Hao Zhou, Shujian Huang, Lei Li, Lili Mou, Olga Vechtomova, Xin-yu Dai, and Jiajun Chen. Generating sentences from disentangled syntactic and semantic spaces. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 60086019, Florence, Italy, July 2019. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-19.pdf
# 自動獲得された因果関係知識に基づく文間の因果関係の推定 山田涼太 北陸先端科学技術大学院大学 yamada224@jaist.ac.jp ## 1 はじめに 文間の因果関係の推定は,質問応答システムなど,自然言語処理における幅広い場面で応用できる技術である。ここで,文間の因果関係の推定とは, 2 つ文 $C$ と $E$ が与えらたとき, $C$ が $E$ によって表される事象を引き起こす原因になっているか否かを推定するタスクとする。これまでの因果関係推定の研究は教師あり機械学習に基づく手法が主流であった。しかし,教師あり機械学習のためには因果関係の有無が付与された大量の文の組の集合が必要である。 本研究は,ブートストラップの手法によって因果関係が付与されたデータセットを自動構築し,それを元に文間の因果関係推定モデルを学習する手法を探究する [1]. データセットの構築, および因果関係推定モデルの学習には, 近年自然言語処理の様々なタスクで良い成果が得られている Bidirectional Encoder Representationsfrom Transformers (BERT)[2] を用いる. また, 自動獲得された因果関係知識の量と推定精度の相関を実験的に検証する。 ## 2 関連研究 Kruengkrai らは, 訓練デー夕における原因文と結果文のそれぞれから得られた単語ベクトルや, 質問応答システムの回答から得られた情報から, 畳み込みニューラルネットワークを用いて因果関係を判定する手法を提案した [3]. 実験の結果, こ た. Hashimoto らは,文間の因果関係を推定する SVM(Support Vector Machine) を学習し, 得られた原因-結果の因果関係を推移律によって繋げることで,先に起こることを予測するシナリオを生成した [4].実験では, $68 \%$ の精度で 50,000 のシナリオを作成できたと報告している。これらの研究では, 因果関係を推定するモデルは人手で構築された訓練データから学習されている。 \author{ 白井清昭 \\ 北陸先端科学技術大学院大学 \\ kshirai@jaist.ac.jp } Abe らは,特定の関係が成立する単語の組とそれを抽出するためのパターンを同時に獲得するアルゴリズム [5]を応用し,因果関係の文の組とそれを抽出するパターンを自動獲得する手法を提案した [6].例えば,同じ文内に出現しかつ同じ目的語を持つ 2 つの節を因果関係が成立する文の組として抽出するパターンが得られた。 本研究は, 人手によるアノテーションを必要としない手法によって文間の因果関係を推定するモデルを学習する点に特徴がある。文献 [6] の手法でも因果関係が付与されたデータを必要としないが,コー パスから因果関係が成立する文の組を抽出することを目的としているのに対し, 本研究は 2 文間の因果関係の推定モデルの学習を目的としている点が異なる。 ## 3 提案手法 ## 3.1 概要 提案手法の処理の流札を図 1 に示す.まず,コー パスから,ヒューリスティクスによって因果関係の有無のラベルが付与された初期のデータを作成する。作成した初期デー夕は, 訓練デー夕, 開発デー 夕,検証デー夕に分割する。一方,コーパスから因果関係の有無のラベルが付与されていない文の組の集合をあらかじめ獲得する。 推定モデルの学習は通常のブートストラップ法にしたがう。まず,初期の訓練データと開発データから,因果関係の有無を判定するモデルを学習する。次に,ラベルなしデー夕に学習した因果関係推定モデルを適用し, 判定結果が付与された新たなデー夕セットを得る。この中から判定の信頼度が高いデー 夕を選別し, 訓練デー夕に追加する。この処理を繰り返すが,推定モデルを学習する度に,検証デー夕を用いてモデルによる因果関係推定の正解率を測り,ひとつ前のステップで学習されたモデルから正解率が改善されなければ,学習を終了する (図 1 の 図 1 提案手法の概要 「終了判定」). 最終的に得られる因果関係推定モデルは,初期データと自動拡張したデー夕を合わせたデータから学習されたものとなる. ## 3.2 初期データの作成 コーパスから因果関係が成立する可能性の高い文の組を収集する,具体的には,接続詞「から」「ので」を含む文を検出し,その前後に出現する文を抽出する,以下に示す例文のように,「から」「ので」 で結ばれた文の間には因果関係が成立する可能性が高いと考える。 電車が止まったからバスが混む雨が降ったので地面がぬかるんでいる 因果関係が成立する文の組 $(C, E, y e s)$ を以下の手続きで抽出する. 1. 接続詞「から」「ので」(以下,「因果関係キー ワード」と記す)を含み,かつその直前が動詞または助動詞である文を抽出する。 2. CaboCha[7] を用いて文の文節の係り受け解析を行う. 3. 因果関係キーワードを含む文節に係り,かつその末尾が助詞である文節を抽出する。また,抽出した文節に係り, かつその末尾が助詞である文節も抽出する。この操作を再帰的に繰り返す。最後に,抽出した文節を連結し,「から」「ので」を削除して,文 $C$ を得る. 4. 因果関係キーワードの後に最初に出現する動詞を検出する,同様に,動詞に係りかつ末尾が助 図 2 因果関係が成立する文の組の抽出例 詞である文節を再帰的に抽出する.抽出した文節を連結して文 $E$ を得る。 5. $C, E$ のいずれかの文字数が 7 未満のとき,これを除外する。 6. これらの文に因果関係が成立するというラベル 「yes」をつけ, $(C, E$, yes $)$ という組を抽出する. 上記の手続きによる抽出の例を図 2 に示す。 因果関係を推定するモデルを学習するためには,因果関係が成立する文の組 (正例) だけでななく, 成立しない文の組 (負例) も必要である。負例は以下の手続きで獲得する.先の手続きで得られた正例のデータセットの集合を $\left.\{\left(C_{i}, E_{i}, y e s\right)\right.\}$ と記す. 原因文 $C_{i}$ に対し, 他の組の結果文 $E_{j}(i \neq j)$ の中からランダムに 1 つを選択し, 負例 $\left(C_{i}, E_{j}, n o\right)$ を生成する.この操作を全ての $C_{i}$ について繰り返す。結果として,正例と同数の負例を得る. 初期デー夕は, あらかじめ 8:1:1 の比率で, 訓練データ,開発デー夕,検証デー夕にランダムに分割する。 ## 3.3 因果関係推定モデルの学習 原因文 $C$ と結果文 $E$ の組が与えられたとき,それらの間に因果関係が成立するか否かを判定するモデルを学習する. このモデルを BERTを用いて学習する。すなわち,入力を以下のような系列に変換する。 [CLS] $c w_{1} \cdots c w_{n}$ [SEP] $e w_{1} \cdots e w_{m}$ [SEP] [CLS] は文の組の分類のための抽象表現を得るた めのトークン, $[\mathrm{SEP}]$ は 2 つの文の境界を示すトー クン, $c w_{i}$ は原因文の単語, $e w_{i}$ は結果文の単語を表す。 BERT による分類モデルの学習は, pre-training(事前学習) と fine-tuning の 2 つのステップから構成される。事前学習済みの言語モデルとして, 日本語版 Wikipedia から事前学習され, 京都大学によって公開されているモデル [8] を使用する。一方, fine-tuning は因果関係の有無のラベルが付与された訓練デー 夕と開発デー夕を用いて行う。学習率 (learning rate) は $2^{-5}$, バッチサイズは 32 , エポック数は 10 と設定する。 ## 3.4 訓練データの拡張 訓練データを抬張するために,ラベルなしデー夕をあらかじめ用意する。接続詞「ため」をキーワー ドとし, 初期データの作成と同様の手続きで原因文 $C$ と結果文 $E$ の候補の組を抽出する。「ため」の前後に出現する文は, 以下の文 1 のように因果関係が成立する場合もあれば,文 2 のように従属節が主節の目的を表す場合もあるため, 正例と負例が混在したデータが得られることが期待できる。 文1: 雪が降ったため遠足は中止になった 文 2: 学会で発表するため何回も練習した $n$ 回目の反復ステップで学習された因果関係推定モデルを $M_{n}$ と記す。すなわち, $M_{n-1}$ を用いて訓練デー夕を拡張し, 拡張後のデー夕で $M_{n}$ を再学習する。初期データから学習された因果関係推定モデルは $M_{0}$ とする. ラベルなしデー夕の集合 $\left.\{\left(C_{i}, E_{i}, ?\right)\right.\}$ (?は因果関係の有無が不明であることを表す) は, 因果関係判定モデルの反復学習のたびに,別のものを用意する. 以降, $n$ 回目の反復で訓練デー夕抎張のために用いるラベルなしデー夕の集合を $U_{n}$ と記す。 訓練デー夕の拡張では, モデル $M_{n-1}$ を用いて $U_{n}$内の文の組に対して因果関係の有無を判定する。さらに, 判定の信頼度も求める. 判定の信頼度は, ここでは BERTによる因果関係推定モデルにおける出カノードの値とする. $U_{n}$ の中から判定の信頼度の大きいデー夕を選別し, 訓練デー夕に追加する. 予備実験では, 信頼度が上位のデー夕の多くが,因果関係推定モデルによって 2 つの文の間に因果関係が成立すると判定されていた。つまり,判定の信頼度が上位のデータのほとんどが正例であった。 そのため,訓練デー夕に追加するデー夕を作成する際に,正例と負例のバランスを取る。具体的には,追加デー夕の数を $N_{\text {add }}$ と設定するとき, 信頼度の大きい順に正例の数が $N_{a d d} / 2$ 件に到達するまで追加データを取得する。この中に含まれる負例の数が $N_{\text {neg }}$ のとき $N_{\text {add }} / 2-N_{\text {neg }}$ 件の負例を新たに作成する.この負例は, 初期デー夕の作成時と同様に, ラベルなしデータ $U_{n}$ の中から原因文と結果文をランダムに組み合わせて作成する. 最終的に正例と負例の数が等しい $N_{a d d}$ 件のデータを拡張データとし, これを訓練データに追加する.以降,拡張した訓練データを用いて因果関係推定モデルを再学習する。 ## 4 評価実験 ## 4.1 実験データ 初期データは, 毎日新聞の 2009 年から 2013 年の記事から獲得した. 初期データの数は 2,796(正例,負例が 1,398 ずつ)であった。 ラベルなしデータは, 同様に毎日新聞の新聞記事データから獲得した。 $U_{1}$ は 2013 年, $U_{2}$ は 2012 年, $U_{3}$ は 2011 年の新聞記事から獲得した。提案手法では, 検証デー夕の正解率が向上しなくなった時点で訓練デー夕の追加を停止するが,今回の実験では試験的に反復回数を 3 回と設定している. $U_{i}$ は互いに重なりはなく, また抽出に用いた因果関係キーワー ドが異なるため, 初期デー夕とも重なりはない.前述の検証デー夕は自動構築されたものである. これとは別に, 因果関係推定モデルの性能を正確に測るため, テストデー夕を人手で作成した。接続詞「から」をキーワードとして抽出した文の組を 50 件,「ので」について 50 件,「ため」について 100 件,合計 200 件の文の組を抽出した。これらに対して,著者 2 名が独立に因果関係の有無を判定した。二者の判定の一致率は $72 \%, \kappa$ 係数は 0.44 であった。一致率や $\kappa$ 係数は低いが,これは因果関係が成立するかを判定する際に,どれだけ常識的知識を使って情報を補うかに関して見解が分かれることが主な原因であった。例えば, $\mathrm{C}=\ulcorner 2$ 歳だった」, $\mathrm{E}=\ulcorner$ 原爆の記憶はない」のとき, 1 名の判定者は 2 歳という幼ない年齢では記憶が残らないと判断し, 因果関係があると判定したが,もう 1 名の判定者は 2 つの文に強い関連性がないと判断した。判定が異なる文の組については, 著者 2 名の合議により最終的なラベルを決めた。テストデータの正例数は 69 , 負例数は 131 となった. 表 1 判定の信頼度と判定精度の関係 & \\ 0.9 & $0.787(70 / 89)$ & $63: 26$ & $57: 13$ \\ 1.0 & $0.797(55 / 69)$ & $58: 11$ & $54: 1$ \\ 1.1 & $0.839(47 / 56)$ & $47: 9$ & $47: 0$ \\ 1.2 & $0.860(43 / 50)$ & $43: 7$ & $43: 0$ \\ 1.3 & $0.897(35 / 39)$ & $35: 4$ & $35: 0$ \\ 1.4 & $0.906(29 / 32)$ & $29: 3$ & $29: 0$ \\ 1.5 & $0.895(17 / 19)$ & $17: 2$ & $17: 0$ \\ 表 2 因果関係推定モデルの反復学習の結果 ## 4.2 実験結果と考察 提案手法では,BERT モデルの出力ノードの値を判定の信頼度とし,これが高いデー夕を訓練デー夕に追加する。この妥当性を検証するために,判定の信頼度が閾値 $t$ 以上のデー夕に対する精度を $P_{t}$ とし, $t$ を変化させたときの $P_{t}$ の変動を調べた. 検証に用いた因果関係推定モデルは初期データで学習したもの $\left(M_{0}\right), P_{t}$ を調べるためのデー夕は (自動作成した) 検証デー夕を用いた。結果を表 1 に示す。閾值 $t$ が大きいほど判定の精度が高いことから,BERT モデルの出力ノードの値を判定の信頼度とすることは妥当であるといえる。また,判定の信頼度が高くなると, 負例の数が正例の数よりもかなり少なくなる傾向も見られた。 表 2 は,それぞれの反復ステップ $i$ について,ラベルなしデータ $U_{i}$ の数 (3 列目), 訓練デー夕の総数 (4 列目), および検証データでの正解率 (5 列目) を示している,今回の実験では,一回の反復で追加するラベル付きデータの数 $N_{a d d}$ を 2000 と設定した. 検証デー夕での正解率は, 1 回目の反復で向上し, 0.657 となったが,それ以降は変動はあるものの,この正解率を越えることはなかった。 表 3 は学習したモデルを用いてテストデー夕の因果関係を判定した結果である。2 行目の「正解率」 はモデルによる因果関係の有無の判定が正解と一致した割合である。また,本実験の夕スクは因果関係表 3 因果関係推定モデルの評価 } & 精度 & 0.368 & 0.383 & 0.378 & 0.364 \\ が成立するか否の二値分類問題なので,因果関係ありのクラスとなしのクラスのそれぞれについて,精度, 再現率, $\mathrm{F}$ 値を調べた。正解率は反復回数が 2 のときに最大で, 0.520 となった。初期デー夕のみから学習したモデル $M_{0}$ と比べて 0.045 ポイント上昇したことから, 訓練デー夕の拡張は効果があることが確認された。しかし, 正解率自体は 5 割程度であり,二者の判定の一致率 $72 \%$ と比べても決して高くなく,改善が必要である。 「因果関係あり」クラスの $\mathrm{F}$ 值は反復が進むにつれて低下するが,「因果関係なし」クラスの $\mathrm{F}$ 値は反復回数 2 回までは向上する。このことから,訓練データの拡張は,因果関係が成立しない文の組に対して正しく判定ができるようになる効果が大きいと言える。 正解率のピークは,表 2 の検証データでは反復回数が 1 のとき,表 3 のテストデータでは反復回数が 2 のときと,一致していない.検証デー夕は自動作成されたものであり,テストデータと性質が異なることが原因のひとつと考えられる,反復をいつ停止するかは重要な研究課題である。 ## 5 おわりに 本論文は,人手によるアノテーションなしに文間の因果関係を推定する手法を提案した。ブートストラップ法によって自動獲得された訓練データが推定モデルの正解率の向上に寄与することを確認した。今後の課題として, 初期デー夕の正例の中には誤りも少なからず含まれているため,真に因果関係が成立する文の組をより正確に選別するルールを開発することが挙げられる。また,本研究では負例はランダムに文を組み合わせて作成したが,2つの文は明らかに無関係であり,因果関係推定モデルの学習にどれだけ寄与するか疑問が残る。より適切な負例の作成方法の探究も今後の重要な課題である. ## 参考文献 [1]山田涼太. 自動獲得された因果関係知識に基づく文間の因果関係の推定. 修士論文, 北陸先端科学技術大学院大学, 32021. [2]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [3]Canasai Kruengkrai, Kentaro Torisawa, Chikara Hashimoto, Julien Kloetzer, Jong-Hoon Oh, and Masahiro Tanaka. Improving event causality recognition with multiple background knowledge sources using multi-column convolutional neural networks. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, pp. 3466-3473, 2017. [4]Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, István Varga, Jong-Hoon Oh, and Yutaka Kidawara. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 987-997, 2014. [5]Patrick Pantel and Marco Pennacchiotti. Espresso: Leveraging generic patterns for automatically harvesting semantic relations. In Proceedings of the 21st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 113-120, 2006. [6]Shuya Abe, Kentaro Inui, and Yuji Matsumoto. Acquiring event relation knowledge by learning cooccurrence patterns and fertilizing cooccurrence samples with verbal nouns. In Proceedings of the Third International Joint Conference on Natural Language Processing, pp. 497-504, 2008. [7]工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, Vol. 43, No. 6, pp. 1834-1842, 2002. [8]BERT 日本語 pretrained モデル. http://nlp.ist.i.kyotou.ac.jp/index.php?ku_bert_japanese. (2020 年 12 月閲覧).
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-1.pdf
# 提示候補とクエリの差分を用いた チャットボットの新規問い合わせ抽出手法 戸田隆道 株式会社 AI Shift toda_takamichi@cyberagent.co.jp 友松祐太 株式会社 AI Shift tomomatsu_yuta@cyberagent.co.jp 杉山雅和 株式会社 AI Shift sugiyama_masakazu@cyberagent.co.jp ## 1 背景 近年カスタマーサポートの分野においてチャットボットによるサポートが注目を集めており、メールにはない返信のリアルタイム性や電話と比べた際の気軽さから、現在多くの企業で導入されている。加えて、これまで人間のカスタマーサポートオペレー ターが対応していた問い合わせをチャットボットによる自動応答で代替することで、人手の工数を削減することが期待されている。一方で、チャットボッ卜自体を運用するためのメンテンナンス作業に人手を掛ける必要があるという課題がある。 メンテナンス作業の中でも特に人手を掛ける必要があるのは回答候補の再設計である。これは回答までたどり着けず、途中で離脱してしまったユーザー のクエリを、正しい回答に紐付ける作業である。大きく分けて既存の回答に紐付ける場合と、新規に回答を作成して紐付ける場合の 2 通りのパターンが存在する。我々はこれまでに前者に関して、作業を効率化するために発話のクラスタリングを行う手法の分析 [1]・提案 [2] やその実装 [3], [4]、完全自動化のための分析 [5] などを行ってきた。今回の研究では後者の新規に回答を作成して紐付ける場合に関して、効率化の手法を提案する。加えて実際のカスタマーサポートで利用されているチャットボットのログに適用して評価する。 ## 2 関連研究 以前我々は回答候補の再設計の効率化として発話のクラスタリングを行う手法の提案 [2] を提案した。 この手法は対話ログのクラスタリングを行い、類似する問い合わせをまとめる。加えて重要度スコアを計算し、まとめられた問い合わせの中で代表的なものを抽出する。これにより作成の手間が大幅に減ることに加え、問い合わせのボリュームゾーンもわかるので、頻出する問い合わせから優先度をつけて回答ペアの作成に取り組むことができるようになった [3]。だが、これらの手法では新規に回答を作成して紐付ける場合は考慮されていない。 用意された回答の中に無い問い合わせを作成する手法として中西らの研究 [6] がある。この手法は文章間の類似度を算出し、類似度が高い文章間の質問を入れ替えることで回答のない質問を作成している。加えて単語べクトルの $\cos$ 類似度や BLEU スコアを用いてその問題の難易度も算出している。 チャットボットが対話の中で未知の話題についてユーザーに問いかける手法として Reshmi らの研究 [7] がある。この手法は対話の中でチャットボットが自発的に未知語に対してユーザーに質問をしてボキャブラリーを増やしていく。 ## 3 提案手法 今回我々が提案する新規回答の作成効率化の手法は、ユーザーの問い合わせ履歴から新規回答を作るべき問い合わせを抽出し、グループ化して提示する。この手法は大きく4つの手順で実行される。 1. 回答提示に失敗している問い合わせを抽出 2. 提示回答との単語の差分を抽出 3. 抽出された差分単語がキーワードである問い合わせを抽出 4. キーワードとその係り受けの ROOT でグルーピング 以下より各手順の詳細について説明する。 ## 3.1 回答提示に失敗している問い合わせの 抽出 チャットボットに問い合わせを行うと、チャットボットは回答候補の中から問い合わせに近いと思われる候補を 1 つないし複数提示する。ユーザーに 「提示された回答では抱える問題を解決できない」 と判断された場合、ユーザーは別の文言で再検索するか対話から離脱することが想定される。 我々の提供するチャットボットプロダクト AI Messenger ${ }^{1)}$ ではこの部分のフィードバックを適切にとるために、提示候補に加えて「この中にはない」 という候補を提示している。本手法ではこの「この中にはない」を選択された問い合わせを回答提示に失敗している問い合わせとして抽出する。 ## 3.2 提示回答との単語の差分の抽出 前節の手順で抽出された回答提示に失敗している問い合わせについて、実環境で利用されたログを分析すると、正しく回答を提示出来ていたのではないかと思われるログがある。以下に、ある決済系サー ビスで抽出された例を表 1 に示す。尚、一部の単語はデータ取り扱いの都合上マスキングしている。 表 1 問い合わせ $\mathbf{Q}$ に対して正解と思われる提示回答 $\mathbf{A}$ このようなログが溜まってしまう原因として、特に困りごとの無いユーザーがテスト的にチャットボットを使ったことが考えられるが、今回の手法ではこういったデータは除外したい。 そこで提示候補全てと問い合わせを単語分割した上で名詞と動詞の終止形に絞り、単語の差分を考える。問い合わせに含まれる単語が全て提示候補に含まれている場合は上記で示したような、「この中にはない」を選択されたが、正しく回答を提示出来ていたものとして除外されることを期待する。 ## 3.3 抽出された差分単語がキーワードであ る問い合わせの抽出 これまでの手順で、正確に回答提示に失敗している問い合わせを抽出することができた。今回の手順 1) https://www.ai-messenger.jp/ ではこの問い合わせからキーワードを抽出する。 キーワード抽出には $\mathrm{GiNZA}^{2)}$ を用いた係り受け解析を利用する。 我々がこれまで多くのカスタマーサポートのデー タを分析した経験上、ユーザーの問い合わせは主語名詞にかかっている格助詞で以下の 3 パターンに分類されると考えている。 ・「XXができない」のようなガ格系円キーワードは、格助詞の「が」がかかっている XX ・「○○を $\triangle \triangle$ したい」のようなラ格系キーワードは、格助詞の「を」がかかっている $\bigcirc \bigcirc$ ・「口ロにうえしたい」のようなニ格系 いる $\square \square$ このパターンで抽出されたキーワードが、前手順で抽出された問い合わせと提示回答の単語の差分 (問い合わせに含まれるが提示回答に含まれない) と一致する問い合わせを抽出する。 ## 3.4 キーワードとその係り受けの ROOT で グルーピング 前手順で抽出されたキーワードと、その問い合わせ文章の ROOT をキーフレーズとして、抽出された問い合わせ群をグルーピングする。例えば「住所の番地が表示されない」という問い合わせに関しては、格助詞「が」が掛かっている主語名詞の「番地」 がキーワードとなり、ROOT の「表示」と合わせて 「番地-表示」がキーフレーズとなる。 図 1 キーフレーズ抽出の例 キーフレーズでグルーピングされた問い合わせ郡を、新規に回答を作成するための候補として運用者に提示する。これにより、回答候補の再設計の作業の効率が向上することが期待できる。 ## 4 評価 我々の運用するチャットボットプロダクト、AI Messenger で実際に使用されたカスタマーサポート向け用例ベースチャットボットのログデータに提案手法を適用する。ログデータは発話日時、発話種別  (ユーザーかチャットボットか)、発話内容、及び対話のユニーク IDをもっており、対象は決済系のドメインとオークションサイト系のドメインで、2020 年 10 月 1 日から 1 週間分の対話になる。 ## 4.1 前処理 発話が 7 文字以上、 20 文字未満のものに絞った。文字数が少なすぎる場合は、単語のみで問い合せされている場合が多い。逆に文字数が多すぎる場合は、メールの文章のような長文かつ複数の文章が問い合わせられている場合が多い。これらはこれまでのチャットボット運用で得た知見で、どちらも係り受け解析ができないため提案手法適用前に除外する。 ## 4.2 結果 提案手法を用いて抽出した結果を以下に示す。 ## 4.2.1 決済系ドメイン 集計情報 - 対話数: 26952 ・抽出キーフレーズ数: 39 - 抽出発話数: 92 図 2 決済系ドメインの抽出キーフレーズ数 (数が多いため上位 5 件のみ) 抽出発話例 (キーフレーズ: いつ-使える) ・くサービス名>はいつ使えますか ・いつまでくサービス名>使えない? ・<サービス名>はいつ使えるか? 抽出発話例 (キーフレーズ: どこ-ある) ・ログイン画面はどこにありますか ・<機能名>ボタンはどこにありますか ## 4.2.2 オークションサイト系ドメイン 集計情報 - 対話数: 7150 ・抽出キーフレーズ数: 5 $\cdot$抽出発話数: 15 図3オークションサイト系ドメインの抽出キーフレー ズ数 抽出発話例 (キーフレーズ: 番地-表示) ・番地が表示されない ・落札者の番地が表示されていない ・落札者情報に番地が表示されていない ## 5 考察 抽出発話を見てみると、例えばオークションサイト系ドメインの「番地-表示」をキーフレーズとするグループなど、適切なものが抽出できているように見光、概ね提案手法はうまく働いていると思われる。 3.3 節で分類された格助詞による分類だが、これらはさらに文章の構成要素から「○○は何ですか?」のような質問系や「XX ができない」のような不可能系など、より詳細なカテゴリに分類できるため、本手法の発展として、より詳細なグルーピングを行えることが期待できる。 ## 5.1 抽出割合について 抽出率は $0.14 \sim 0.20 \%$ となっている。この値はチャットボットの運用を継続するに従って下がっていくと予想できる。今回適用した 2 つのドメインは 1 年以上継続してチャットボットを運用していたため、回答が十分に成熟しており、新規に回答を作成すべき問い合わせが少なかったのではないかと考えられる。 ## 5.2 突発的な問い合わせの増加について 決済系ドメインの「いつ-使える」をキーフレーズとするグループだが、こちらは、発話例文中にあるサービスが、ちょうどログの期間中障害で停止していたため、このような問い合わせが多く来ていたようだった。このように、障害や特定の期間のイベントの影響で、普段されない問い合わせが突発的に増えることが予想できる。 ## 5.3 場所を聞く疑問詞 決済系ドメインの「どこ-ある」をキーフレーズとするグループだが、これらはサービスの UI に難点がある場合に多く問い合わせられるのではないかと考えられる。今回の例では件数が少ないが、同じものに関して多くの問い合わせがある場合にUIを完全するなど、カスタマーサポートだけでなく、サー ビスの改善にも活用出来るのではないかと期待できる。 ## 6 おわりに 本稿では、チャットボットのメンテンナンス作業を効率化するため、メンテナンス作業の中でも特に人手をかける必要があるのは回答候補の再設計のうち、新規に回答を作成して紐付ける場合に関して、効率化の手法を提案した。加えて実際のカスタマー サポートで利用されているチャットボットのログに適用した。 概ね良い結果を得られたが、運用時間経過に伴う抽出割合の変化や突発的な問い合わせの増加など、 ログの期間やドメインの種類などより詳細な分析が必要だと思われる。またキーフレーズが「どこ-ある」のグループは UI 変更などのサービス改善にも役立つことが期待できる。 今後は、我々の運用システム [3], [4]への実装も視野に入れてより詳細な分析を続けたい。 ## 参考文献 [1] 戸田隆道, 黒岩稜, 杉山雅和, 友松祐太. チャットボッ卜運用における対話クラスタリング. 言語・音声理解と対話処理研究会, No. 2, pp. 91-92, 2019. [2] 戸田隆道, 杉山雅和, 友松祐太. チャットボット運用における新規問い合わせ候補の抽出. 言語処理学会第 26 回年次大会発表論文集, 2020. [3] 戸田隆道, 杉山雅和, 友松祐太. チャットボット運用効率化のための新規問い合わせ候補抽出システム. 人工知能学会第 34 回全国大会発表論文集, 2020. [4] 友松祐太, 戸田隆道, 杉山雅和. Ai チャットボットのためのチューニング支援システム. 言語・音声理解と対話処理研究会, No. 2, pp. 30-32, 2020. [5] 戸田隆道, 杉山雅和, 友松祐太. 自動質問応答における連続発話からの類義クエリ抽出. 言語・音声理解と対話処理研究会, No. 2, pp. 91-95, 2020. [6] 中西真央, 小林哲則, 林良彦. 答えのないことを答える machine reading comprehension. 言語処理学会第 24 回年次大会発表論文集, 2018 . [7] S RESHMI and KANNAN BALAKRISHNAN. Implementation of an inquisitive chatbot for database supported knowledge bases. SADHANA, Vol. 41, No. 10, pp. 11731178,2016
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-20.pdf
# BERT を利用した Zero-shot 学習による同音異義語の誤り検出 藤井真新納浩幸 茨城大学大学院 理工学研究科情報工学専攻 \{19nm727r, hiroyuki.shinnou.0828\}@vc.ibaraki.ac.jp ## 1 はじめに 本研究では,かな漢字変換や音声入力に起因する同音異義語の誤りについて, BERT[1] と Zero-shot 学習を組み合わせて検出する手法を試みる。 日本語文を電子的に入力する機会は PC やスマー トフォン,タブレット端末などの普及に伴い増加,低年齢化している.近年は,小学校や中学校の授業にもタブレット端末が導入されている.このような利用環境の中で,言語の音だけを頼りにかな入力し,十分な識別認識を欠いたまま変換後の漢字を用いるといったケースも散見される. 特に「追求」と 「追及」のような,意味や用法の差異が小さい同音異義語について顕著である.入力を支援するシステムの教育的な重要性は高まり,誤りを検出し再確認を促すシステムの必要性も高まっている。 同音異義語の誤りを検出する既存の手法は,複合語に着目し文字連鎖を用いる手法 [2] や決定リス卜を用いる手法 [3], 確率的 LSA を用いる手法 [4], Earth Mover's Distance を用いる手法 [5]がある. 本研究では,ニューラルネットワークを用いた言語モデル BERTを同音異義語の誤り検出に用いる.同時に, 機械学習の学習コストを減らす取り組みである Zero-shot 学習の形式も合わせて取り入れる. Zero-shot 学習は, 学習時にアクセスできない未知のラベルを推定する手法で,主に画像処理の物体認識の分野で未知の物体を推定する際に用いられている.この推定を可能にするため,事前知識という領域を設定することが特徵となる。この事前知識にはデータ,モデル,アルゴリズムなどが想定される. これにより,未知のデータに対して頑健なモデルを得ようとする取り組みである. 本研究では,この事前知識に BERTをあてる。 BERTを用いてテストデータの同音異義語部に適する単語を 10,000 語予測させ,その結果を同音異義語の誤り検出に用いる. 実験では五組の同音異義語を対象とした。テストデータは毎日新聞記事の中から対象単語の載る文を抽出し, それらから人為的に誤りを含ませて作成した。実験の結果から,人が細かいニュアンスの差異を頼りに識別する同音異義語の誤りを検出できる可能性が得られた. 実験精度の悪かった同音異義語の検証から,事前知識に用いたモデルの一部に過剰適合が生じている知見が得られた。 ## 2 BERT BERT (Bidirectional Encoder Representations from Transformers) は双方向の Transformer[6] を用い,大規模データによって事前学習された言語モデルである. 大規模データにより事前学習することで強力な汎用言語モデルを作成し,そのモデルを各タスクの教師ありデータに fine-tuning する二段階のフレームワークを用いている.BERT の構造は Transformer の self-attention を中心とした多層の双方向 Transformer エンコーダである. BERT の入力表現はラベルの無い二文をトークン化したものと特殊トークンを合わせた一つのシー ケンスとなる。特殊トークンは [CLS] と [SEP] に表現され,[CLS] はシーケンス最初に設置されるトー クンであり, [SEP] は文の区切りに設置されるトー クンである。これらの各トークンに対し,シーケンス中の位置と二文のどちらに属するかの情報を合わせ,埋め込み表現とする。この埋め込み表現を Transformer ブロックを中心とした多層で学習し,その結果を MLM や NSP に用いて下流タスクの精度を高めている。これまでの内容を図 1 として示す. ## 2.1 MLM MLM (Masked Language Model) は文献により cloze タスクとも呼ばれる処理である.BERTにおいては入力トークンの $12 \%$ をンダムに [MASK] トークンに置き換え,それら [MASK] されたトークンを交差エントロピー誤差を元に予測するタスクを行う.最終的な [MASK] トークンの埋め込み表現はソフト 表 1 機械学習の分類 図 1 BERT モデル マックスを通じて各単語と結びつくこととなる.このタスクにより従来の事前学習手法に比べて,文脈の前後を捉えた双方向性を獲得している. ## 2.2 NSP NSP (Next Sentence Prediction) は,言語モデリングで得られない二文間の関係を BERT に理解させるタスクである。学習に用いられる単一のコーパスから,シーケンス用の文 $\mathrm{A}$ と文 $\mathrm{B}$ を選ぶ際,文 B は文 $\mathrm{A}$ に連続する文と非連続の文の 2 パターンが半々で選ばれる. 非連続の文はにコーパス中からランダムに選ばれる。この連続・非連続に二値化された,次の文を予測するタスクが図 1 の左下の記される埋め込み表現 Cを元に行われる。これにより,質問応答や自然言語推論といった文間関係の理解が重要な下流タスクの精度を高めている。 ## 3 Zero-shot 学習による誤り検出 ## 3.1 Zero-shot 学習 一般的な機械学習は学習コストが課題となる. 学習コストはモデル作成のための計算コストや教師あり学習の教師データを作成するコストなどが挙げられる. 後者に対しては半教師あり学習,教師なし学習,弱教師あり学習といった対策を生んだ. しかし,これらのいずれも基本的にはデータの量を前提にしている。一般的な機械学習のアプローチを用いると小規模データからは脆弱なモデルが生まれるという課題があるためである. Zero-shot 学習は,これらの課題について改善を試みる取り組みとなる. Zero-shot 学習は Few-shot 学習の考え方に基づいているため, Few-shot 学習の概要から説明する. Few-shot 学習は, wang らの定義 [7] から,従来の一般的な機械学習の分類 (教師の有無など)を横断する概念となる。まず,機械学習の定義を wang らの方針を参照し設定しておく.「あるタスク Tのためのプログラムが,その性能評価値 $\mathrm{P}$ に関して,経験 Eによって改善される場合,そのプログラムは経験 E から学習している.」と設定する. few-shot はタスク固有の限られた数のラベル付きデータを意味し,経験 $\mathrm{E}$ にあたる。この段階では小規模データの教師あり学習と同じ様相となるが,小規模データのモデル脆弱化に対して, Few-shot 学習は事前知識という後ろ盾を用いる点が異なる.この事前知識も経験 E にあたり,その選定制約の基本は few-shot の持つ情報に触れないことである. その上で事前知識の対象には,タスク $\mathrm{T}$ を処理するのに適したデータ,モデル,アルゴリズムなど多様な対象が挙げられる. Zero-shot 学習はタスク固有のラべル付きデータを用いず,事前知識を中心にタスクを処理する。これまでに説明した機械学習の分類について wang らの定義に基づき表 1 に示す. wang らは Zero-shot 学習については,Eに他のモダリティを含ませる必要があることにも言及している. ## 3.2 提案手法 wang らの定義に基づいて提案手法を表現すると, タスク $\mathrm{T}$ はクラス分類としての同音異義語の誤り検出,経験 E は事前知識として事前学習モデルの BERT,性能評価値 $\mathrm{P}$ は分類精度となる。 まず,対象の同音異義語が含まれる文を誤り検出の対象文として入力する.入力文中から対象となる同音異義語部を BERT の [MASK] トークンに置き換える。その後,BERTを用いて [MASK] 部を予測する処理を行う。予測結果を BERT の尤度順に 10,000 語取得し,対象となる同音異義語の出現順を調べる.出現順の早い,BERT の尤度が高い方を入力文で用 いられるべき同音異義語の推測結果とする. 推測結果と大力文の同音異義語が異なる場合に誤りとして検出する. ## 4 実験 ## 4.1 実験設定 誤り検出に用いる同音異義語は筆者の主観により,表 2 に示す五組を対象とする.実験には 1993 年から 1999 年の毎日新聞の記事データを用いる. テストデータは,この記事データの中から対象の同音異義語が含まれる文を取り出すことで作成した. 取り出す際に $\mathrm{MeCab}^{1}$ を経て単語の確認をしている. MeCab 用の辞書は mecab-ipadic-NEologd[8]を用いている. 利用するデータ数は比較する同音異義語の文数が少ない方に合わせてランダムに抽出している. 同音異義語の誤ったデータは,記事の内部に記載されている同音異義語について当該箇所だけをもう一方の同音異義語に置き換えることで作成した. 誤りデータは全体の 50 \%分作成する. BERT の事前学習モデルには東北大学から公開されている日本語版 BERT $^{2)}$ を用いている。この BERT の設定は「bert-base-japanese-whole-word-masking」のモデルを公開されているデフォルトのままで用いている. 二值分類として偏りの無いテストデータを用いているが,正解率や再現率を考慮するため実験の評価には $\mathrm{F}$ 値を用いた。 また,事前知識として用いた BERT の事前学習モデルが本実験で対象とした同音異義語について fine-tuning 無しにどの程度の識別するのかを検証するため,誤りを含めない新聞記事のままで予測させる実験も行っている。 ## 4.2 実験結果 表 2 に,本研究で設定した内容の一部と実験の結果を示す. 誤り検出の結果を示す $\mathrm{F}$ 值は比較する同音異義語により様々な值となった。人が細かいニュアンスの差異を頼りに識別する同音意義語を対象としているので,「追及」と「追求」については精度が良いと言える。一方,「修行」と「修業」の精度は悪く,二値分類の結果としては脆弱となった. 実験に用いたデータ数による影響は,データ数の最も多い「体  表 2 実験結果 表 3 誤りを含めない識別結果 制」と「態勢」,データ数の最も少ない「回答」と 「解答」の結果を見る限り言及するほどに影響を与えていないと推察される。 誤りの検出は,BERT の事前学習モデルが予測する単語を元に行っている。その影響を検証するため,誤りを含めない新聞記事のままで対象単語を予測させた結果を表 3 に示す。 検出精度の悪い同音異義語について,BERT の事前学習モデルは一方の単語に偏って予測しているという傾向が得られた.「修業」を「修行」と取り違えた文の例を表 4 に示す. 表中の上二文については文が短く,文脈を想定しなければ「修業」と「修行」 のどちらも正解と言って良いもので,テストデータの設定に調整が必要である.表中の下二文については, 「修業」と「修行」の違いに話者の精神性や他者との関係性が含まれる点をよく理解する必要があるため,人が「修行」と誤っても責められず,より良いニュアンスとして「修業」を用いた方が良い文と言える。このようなニュアンスを優れた機械学習の 山田さんは修業 3 年目だ。 まだまだ修業中の身ということを思い知らされた. 大学を卒業後, 神戸のレストランでしばらく修業し, 再度フランスヘ. 修業感覚を欠いた現在中心の快楽志向が日本の若者の特徴. モデルは内包しきるのか,今後も検証を進めたい. ## 5 おわりに 本研究では Zero-shot 学習の形式に基づき,BERT を用いた同音異義語の誤り検出を試みた. 実験の結果は,現段階の提案手法ではニュアンスの差異が小さい同音異義語の誤り検出について様々な精度となることを確認した. これは Zero-shot 学習の事前知識として用いた BERT の事前学習モデルが,検出精度の悪くなる同音異義語を予測する際に,一方に偏って予測することに起因している.偏りの生じる原因は事前学習の際に用いられるデータの質と量が関わると推察する. 本実験の BERT モデルは日本語版 Wikipediaコーパスを用いて事前学習されている.新聞記事よりも誤植について制約がないため同音異義語が使用される場面での質が担保されない。また,大規模データを前提とする事前学習モデルに,本実験のような単語ごとの量的な調整は行われない.このような事前学習データの質と量の問題が,機械学習の過剰適合に繋がったのではないかと推察する. 本実験の様に fine-tuning を介さない Zero-shot 学習の形式をとることで,fine-tuning で見失われやすい汎用モデル自体の課題が生じた. 今後の課題として,まずは本実験の対象を拡大し結果の傾向をより詳細に分析することが挙げられる. 次に, BERT の学習に用いられた日本語版 Wikipediaコーパスにおいて,本実験で対象とした同音異義語の量的な検証を行い,その影響を調べる必要もある. 以上の内容を踏まえた BERT の事前学習モデルを作成し,本実験との比較も試みたい。また,本実験は Zero-shot 学習の事前知識として単一のモデルを用いたが,複数のモデルを用い集合知の形式を取り入れるなどの検証を進めたい. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [2] 奥雅博, 松岡浩司. 文字連鎖を用いた複合語同音異義語誤りの検出手法とその評価. 自然言語処理, Vol. 4, No. 3, pp. 83-99, 1997. [3]新納浩幸ほか. 複合語からの証拠に重みをつけた決定リストによる同音異義語判別. 情報処理学会論文誌, Vol. 39, No. 12, pp. 3200-3206, 1998. [4] 三品拓也, 貞光九月, 山本幹雄ほか. 確率的 $1 \mathrm{sa}$ を用いた日本語同音異義語誤りの検出・訂正. 情報処理学会論文誌, Vol. 45, No. 9, pp. 2168-2176, 2004. [5] 河原直人, 梅澤猛, 大澤範高ほか. E-016 earth mover's distance を用いた同音異義語判別 (e 分野: 自然言語 $\cdot$音声・音楽). 情報科学技術フォーラム講演論文集, Vol. 12, No. 2, pp. 217-218, 2013. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [7] Yaqing Wang, Quanming Yao, James T Kwok, and Lionel M Ni. Generalizing from a few examples: A survey on fewshot learning. ACM Computing Surveys (CSUR), Vol. 53, No. 3, pp. 1-34, 2020. [8] 奥村学佐藤敏紀. 単語分かち書き辞書 mecab-ipadicneologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. NLP2017-B6-1. 言語処理学会, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-21.pdf
# 相互情報量最小化による例文に基づく制御可能な言い換え生成 杉浦昇太 $^{1}$ 西田典起 $^{2}$ 朱中元 $^{3}$ 中山英樹 ${ }^{1}$ 1 東京大学大学院 \{sugiura, nakayama\}@nlab.ci.i.u-tokyo.ac.jp 2 理化学研究所 AIP noriki.nishida@riken.jp ${ }^{3}$ NAVER AI Research shu.raphaelenavercorp.com ## 1 はじめに 言葉を同じ意味内容を表す異なる表現に言い換えることは,コミュニケーションをより円滑にするために重要である.意図が伝わらない場合はより平易な表現に言い換え,あるいは場の状況に合わせてよりくだけた表現や丁寧な表現に言い換える.このように言葉を適切に言い換える能力は,人間のみならず機械にも求められる。 言い換え生成とは,所与の文の言い換えを自動的に生成する自然言語処理技術である。近年,ニュー ラルネットワークを用いた言い換え生成の手法が数多く提案されており,妥当で自然な言い換えの生成を達成しつつある [1,2]. 一方で,自然言語の持つ表現の多様性を踏まえると,利用者の望むような表現で書かれた文を得るためには,与えられた文に対してただ一つの言い換えを生成するだけでは不十分である. 本研究では,利用者が言い換えのスタイルを制御可能な言い換え生成の手法を提案する。ここでスタイルとは,文体や言い回し,構文など,文の意味内容に関わらないような表層的な表現のことである.図 1 に,提案手法の概要を示す. 提案手法では,言い換えの対象となる入力文とともに利用者によって指定された例文を入力として,入力文の意味を保ちつつ例文のスタイルを持つような言い換え文を生成する。例えば, 入力文として “What is the best way to earn money?",例文として “How can I learn English?” という文が提示される状況を考える。システムは入力文の意味を保ちつつ, 例文の構造, 言い回しなどを可能な限り真似た出力文を生成する。この例では “How can I earn money?” が条件に即した妥当な言い換えであると言える。 Iyyer ら [3] や Chen ら [4] は, 出力の統語構造を指定する言い換え生成手法を開発した. しかし,利用 図 1 提案手法の概要. 言い換え生成システムは,入力文 (input) と例文 (exemplar)を受け取り,言い換え (output)を生成する. 者が望むような文を出力するのに統語構造だけで十分であるとは限らず,また言語学的な素養のない一般の利用者にとっては統語構造による操作は負担が大きい,そこで本研究では,生の例文に基づき,統語構造だけでなく文体や言い回しなども含めてよりそれに近しい文を生成することを目指す。 ## 2 手法 本研究では,データセットとして言い換え文の対を含むパラレルコーパス $\langle\mathbf{x}, \mathbf{y}\rangle \in \mathscr{D}$ 使用する.ここで, $\mathbf{x}$ と $\mathbf{y}$ はぼ同じ意味を持つが,異なる表現で書かれた文である. 提案手法のモデルは,二つの構成要素からなる.符号化モデル $g_{\boldsymbol{\theta}}$ は,例文 $\mathbf{e}$ を符号化してスタイルの潜在変数 $z$ を生成する機構である. 系列変換モデル $p_{\boldsymbol{\theta}}$ は, 文 $\mathbf{x}$ と潜在変数 $z$ を受け取り, 出力として $\mathbf{x}$ の言い換え文を生成する機構である。この 2 つのモデルのパラメータをまとめて $\boldsymbol{\theta}$ と表記する。 推論時には,系列変換モデルは入力文 $\mathrm{x}$ を参照して生成するべき文の意味を,$z_{\mathrm{e}}=g_{\theta}(\mathbf{e})$ を参照してスタイルの情報を得て,これらに従って言い換え文を生成する。 学習時には,例文は提示されず,言い換え文の対 $\langle\mathbf{x}, \mathbf{y}\rangle$ のみが与えられる.そこで,例文ではなく $\mathbf{y}$ を符号化してスタイルの情報 $z_{\mathbf{y}}=g_{\theta}(\mathbf{y})$ を抽出し, $\mathbf{x}$ と $z_{\mathbf{y}}$ から $\mathbf{y}$ を復元するような学習を行う. 推論時に適切な言い換えを生成するためには,学習に際して以下の 2 点に留意する必要がある。 (1)入力文 $\mathbf{x}$ と潜在変数 $z$ を受け取り, 条件に沿った言い換えを生成するような系列変換モデルを学習する。 (2)潜在変数 $z$ が,例文 (学習時には $\mathbf{y}$ ) の意味内容ではなく,スタイルに関わる情報のみを保持するように符号化モデルを学習する. (2) の重要性について触れる. 仮に $z_{\mathbf{y}}=g_{\theta}(\mathbf{y})$ が $\mathbf{y}$ に関する情報を完全に保持している場合,系列変換モデルは $z_{\mathbf{y}}$ のみを見て $\mathbf{y}$ を復元するように学習してしまう,そうすると,推論時には入力文 $\mathbf{x}$ と同義な文を生成できなくなり,言い換え生成として成立しなくなる. 従って, $z$ が文の意味ではなくスタイルの情報のみを保持するような制約を加えて学習することが必要となる. ## 2.1 損失関数の設計 学習時は,言い換え対 $\langle\mathbf{x}, \mathbf{y}\rangle \in \mathscr{D}$ を受け取り, $\mathbf{x}$ から $\mathbf{y}$ を生成するようにモデルを訓練する。 Cross-Entropy 損失関数 $\mathscr{L}_{\mathrm{GEN}}$ は次のように定義できる. $ \mathscr{L}_{\mathrm{GEN}}=\frac{1}{|\mathscr{D}|} \sum_{i=1}^{|\mathscr{D}|}-\log p_{\theta}\left(\mathbf{y}_{i} \mid \mathbf{x}_{i}, z_{\mathbf{y}_{i}}=g_{\boldsymbol{\theta}}\left(\mathbf{y}_{i}\right)\right) $ 相互情報量に基づく損失符号化モデル $g_{\theta}$ が文の意味内容ではなく,スタイルに関わる情報のみを抽出するように制約を導入する。言い換え対 $\mathbf{x}$ と $\mathbf{y}$ は意味は同じであるが,それぞれ表層的に異なる言語表現のはずである. つまり, 符号化モデルは言い換え文の対が共有する意味に関わる情報ではなく,それらが共有しないスタイルに関わる情報のみを抽出できれば良いということになる。これは, $\mathbf{x}$ と $\mathbf{y}$ をそれぞれ符号化したべクトル表現 $z_{\mathbf{x}}=g_{\theta}(\mathbf{x})$, $z_{\mathbf{y}}=g_{\boldsymbol{\theta}}(\mathbf{y})$ が,相互に依存することがないような制約を損失関数に導入することで実現できると考えられる。 本研究では, そのような制約を相互情報量 $I\left(z_{\mathrm{x}}, z_{\mathrm{y}}\right)$ の最小化問題として定式化する。相互情報量を学習の過程で直接推定することは困難であるため,ここではサンプルベースの相互情報量の上界 $[5,6]$ を計算し,これを損失関数に加えることで,相互情報量を上から抑えることとする。 ミニバッチとして与えられる言い換え対のサンプル $\mathscr{B}=\left.\{\left(\mathbf{x}_{j}, \mathbf{y}_{j}\right)\right.\}_{j=1}^{M}$ につ いて,これらを符号化モデルによって変換して得られた潜在変数 $\left.\{\left(\boldsymbol{z}_{\mathbf{x}_{j}}, z_{\mathbf{y}_{j}}\right)\right.\}_{j=1}^{M}$ を考える. このサンプルを用いて,相互情報量 $I\left(z_{\mathrm{x}}, z_{\mathrm{y}}\right)$ の上界は以下のように推定できる. $ \begin{aligned} & I\left(z_{\mathbf{x}}, z_{\mathbf{y}}\right) \leq \\ & \mathbb{E}\left[\frac{1}{|\mathscr{B}|} \sum_{j=1}^{|\mathscr{B}|}\left[\log p\left(z_{\mathbf{y}_{j}} \mid z_{\mathbf{x}_{j}}\right)-\frac{1}{|\mathscr{B}|} \sum_{k=1}^{|\mathscr{B}|} \log p\left(z_{\mathbf{y}_{k}} \mid z_{\mathbf{x}_{j}}\right)\right]\right] . \end{aligned} $ 以上から,損失関数 $\mathscr{L}_{\mathrm{MI}}$ を以下のように定義する。 $ \begin{aligned} & \mathscr{L}_{\mathrm{MI}}= \\ & \frac{1}{|\mathscr{B}|} \sum_{j=1}^{|\mathscr{B}|}\left[\log q_{\boldsymbol{\phi}}\left(z_{\mathbf{y}_{j}} \mid z_{\mathbf{x}_{j}}\right)-\frac{1}{|\mathscr{B}|} \sum_{k=1}^{|\mathscr{R}|} \log q_{\boldsymbol{\phi}}\left(z_{\mathbf{y}_{k}} \mid z_{\mathbf{x}_{j}}\right)\right] . \end{aligned} $ ここで, $q_{\phi}\left(z_{\mathbf{y}} \mid z_{\mathrm{x}}\right)$ は, $p\left(z_{\mathbf{y}} \mid z_{\mathbf{x}}\right)$ を近似したもので, ガウス分布 $q_{\phi}\left(z_{\mathbf{y}} \mid z_{\mathbf{x}}\right)=\mathcal{N}\left(\mu_{\phi}\left(z_{\mathbf{x}}\right), \Sigma_{\phi}\left(z_{\mathbf{x}}\right)\right)$ に従うとする. $\mu_{\phi}$ と $\Sigma_{\phi}$ は,パラメータ $\phi$ を持つニューラルネットワークである. $q_{\phi}\left(z_{\mathrm{y}} \mid z_{\mathrm{x}}\right)$ の負の対数尤度を最小化することで, $\boldsymbol{\phi}$ の学習を行う。 $ \mathscr{L}_{\mathrm{NLL}}=\frac{1}{|\mathscr{D}|} \sum_{i=1}^{|\mathscr{D}|}-\log q_{\boldsymbol{\phi}}\left(z_{\mathbf{y}_{i}} \mid z_{\mathbf{x}_{i}}\right) $ パラメータ $\boldsymbol{\theta}$ に関しては,次の損失関数を最小化することで最適化する。 $ \mathscr{L}=\mathscr{L}_{\mathrm{GEN}}+\beta \mathscr{L}_{\mathrm{MI}} . $ $\beta$ は $\mathscr{L}_{\mathrm{MI}}$ 項の大きさを決めるハイパーパラメータである。学習には確率的勾配降下法を利用し,各イテレーションの中で $\boldsymbol{\phi}$ と $\boldsymbol{\theta}$ それぞれを更新する. ## 2.2 モデルの設計 符号化モデルは, Transformer Encoder [7] と多層パーセプトロンによって構成されている. Transformer の最終層の隠れべクトルの平均をとり, これを多層パーセプトロンで変換したものを出力とする. 系列変換モデルの構造は,通常の Transformer と同じである.ただし,デコーダの最初のステップの入力には SOS トークンではなく, 符号化モデルが出力した潜在変数 $z$ に対してアフィン変換を適用して得られたベクトルを用いる. $\mu_{\phi}$ と $\Sigma_{\phi}$ はそれぞれ多層パーセプトロンである. $\Sigma_{\phi}$ は対角行列を出力する. ## 3 実験と考察 ## 3.1 データセット Quora Question Pairs ${ }^{1}$ は,約 14 万件の質問文の言い換えの対を含むデータセットである. 10 万件を学習データ, 1 万件を検証データとした. テストデータについては, 100 件のデータに対して適当な例文を手動で用意した。まず参照文 $\mathbf{y}$ と構文が近く,また単語一致率の高い文を,学習データと検証データに利用しない文の集合から抽出した. その中で,入力文 $\mathbf{x}$ および参照文 $\mathbf{y}$ とは意味内容の異なる文を一つ手動で選び,必要があれば多少の編集を行い,それを例文 $\mathbf{e}$ とした.以上のようにして,参照文と意味は異なるものの,スタイルの似ている文をアノテーションした. 用意したテストデータの一部を付録に掲載する。 ## 3.2 評価指標 テストデータは,入力文 $\mathrm{x}$ ,例文 $\mathrm{e}$ ,参照文 $\mathrm{y}$ の三つから構成されている. モデルが $\mathbf{x}$ とから生成した文を,以下の二つの観点から評価する。 (1)妥当性: 生成された文が入力文の言い換えとなっているか,つまり生成された文の意味が入力文の意味と同じであるか? (2)可制御性: 生成された文が例文と似たようなスタイルの文となっているか? 参照文との比較本研究では,問題設定に合ったテストデータを用意しているので,より参照文と類似している文を生成できれば,(1) 妥当性と (2) 可制御性を満たしていることになる。 そのため, 本研究では BLEU [8]により参照文との類似性を評価した。 入力文との比較生成した文と入力文の意味的な類似度を調べることで,(1) 妥当性について評価する。意味的な類似度の計算方法として Sentence-BERT 類似度を使う. 具体的には,入力文と出力文をそれぞれ Sentence-BERT [9] によってべクトルに変換し ${ }^{2}$, それらのコサイン類似度を意味的な近さとする。 例文との比較生成した文と例文のスタイルの類似度を調べることで,(2) 可制御性を評価する。スタイルの類似度として,次の二つの尺度を用いた。 1) https://www.kaggle.com/c/quora-question-pairs 2) 本研究では https://github.com/UKPLab/sentence-transformers の学習済みモデルを用いた。表 1 Quora のテストデータにおける結果. それぞれ 3 回の試行の結果を平均したものを示している.BLEU は参照文,Sentence-BERT 類似度は入力文,TED及び LCS は例文と,生成文を比較したものを示す。 TED (tree edit distance of syntax tree) TEDによって文同士の構文的な類似度を測る,TEDでは,2つの文の句構造 (終端ノードは除去) に関する編集距離を計算する.距離であるため,値が小さいほど構文的に近いことを表す. $\mathrm{Zss}^{3}$ )によって TED を計算した. LCS (longest common sequence) LCS によって文同士の言い回しの共有度を測る.LCS では,与えられた列の集合に共通する最長の部分列を求める. LCS の長さは,文書要約の自動評価尺度である ROUGE-L [10] に見られるように,自然言語の類似度評価にも利用されてきた。本研究では,文を単語の系列とみなし, 生成文と例文との LCS の長さを評価する.LCS が長いほど,生成文が例文に含まれる言い回しを含んでいることを示す. ## 3.3 ハイパーパラメータ Transformer は,エンコーダレイヤ及びデコーダレイヤのスタック数をそれぞれ 6 ,ヘッド数を 8 ,隠れ層と単語埋め込みの次元数を 256 とした。 モデルの学習には Adam [11]を用い, Vaswani ら [7] と同じ学習率のアニーリングを行った。ミニバッチサイズは 128 で,検証データに対する損失が 10 エポックに渡って減少しなかったときに学習を終了する早期終了を行った.正則化のため,0.1 のドロップアウトを用い,また交差エントロピー誤差の計算に際して 0.1 のラベル平滑化を行った. Stanford CoreNLP Toolkit [12] によって単語分割を行い, さらに SentencePiece [13] によってサブワードに分割した. サブワードの語彙数は 8000 とした. ## 3.4 結果 実験結果を表 1 に示す. Seq2Seq [7] は例文による操作がなく,入力文のみから言い換え文を生成す  表 2 Quora のテストデータにおいて生成された言い換え結果の例. 入力文 (source) と例文 (exemplar)をイタリック & \\ る. SCPN [3] は例文の句構造に関する条件の下で入力文の言い換えを生成する。 参照文との類似度を示す BLEU スコアをみると, $\beta=1$ のときの提案手法が最も品質の高い言い換えを生成できていることがわかる. 従来の Seq2Seq と比較して大幅なスコアの向上が見られ,例文による操作の元で望ましい言い換えが生成できていることが定量的に確認できた。 注目すべきことに, $\beta$ の值が小さすぎる場合も大きすぎる場合も BLEU スコアが大幅に低下する. $\beta$ が小さすぎるときは入力文との Sentence-BERT 類似度が小さくなっている. これは入力文の意味を生成結果が保てておらず,その結果,BLEU スコアが小さくなっていると考えられる。一方で, $\beta$ が大きすぎるときは例文との TED が大きく, LCS も小さくなっている。これは例文のスタイルが生成結果に反映されていないということを表し,その結果として,BLEUスコアが小さくなっていると考えられる。 定量評価に加えて,生成された結果を定性的に分析した. 表 3.4 に $\beta=1$ のときの生成結果を示す.提案手法では, $\beta=1$ のとき,入力文の意味を保ちつつ,例文のスタイルに似た表現を生成できていることが分かる. 図 2 Sentence-BERT 類似度と $\mathrm{TED}$ (左) 及び $\mathrm{LCS}$ (右) の関係. ## 3.5 妥当性と可制御性のトレードオフ ここでは, 入力文の意味内容の保持と例文による操作性のトレードオフについて調べる. 図 2 に,生成結果を入力文と比較した Sentence-BERT 類似度と,例文と比較した TED 及び LCS の関係を示す. TED が低いほど例文の構文構造を反映していることとなるため,図の右下にある点がより良い結果となる. Seq2Seq の生成結果は,例文の情報を推論時に全く使っていないため,当然例文との構造的な距離は大きい.SCPN は例文の句構造を推論時に用いてそれに沿った言い換えを出力するため,TEDのスコアが Seq 2 Seq と比較して小さくなっている. 提案手法の結果は, $\beta$ の値が増加するにつれて図中左下から右上に推移している. $\beta=1$ の結果をみると, SCPN の結果と Sentence-BERT 類似度はほぼ同じであるにも関わらず,TEDがょり小さくなっている. すなわち,SCPN と比較してより良いトレードオフを達成していることが確認できる. LCS は高いほど例文の言い回しを含む文が生成できていると言えるため,図の右上にある点がより良い結果となる. 入力文との意味的な類似度を低下させず,LCS を高くできている。すなわち,言い換えとしての品質を落とさないまま,語彙的にも例文により近い文を生成できている。 ## 4 おわりに 本研究では,例文を用いた制御可能な言い換え生成の手法を提案した,文のスタイルに関する情報のみを抽出するために,相互情報量に基づく損失関数を導入した。評価用に,Quora データセットについて例文のアノテーションを行った。 実験の結果,提案手法によって入力文の意味を保持しつつ例文のスタイルを持つような言い換えが生成できていることを定量・定性的に確認した. ## 参考文献 [1] Aaditya Prakash, Sadid A. Hasan, Kathy Lee, Vivek Datla, Ashequl Qadir, Joey Liu, and Oladimeji Farri. Neural paraphrase generation with stacked residual LSTM networks. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 2923-2934, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [2] Zichao Li, Xin Jiang, Lifeng Shang, and Hang Li. Paraphrase generation with deep reinforcement learning. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3865-3878, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [3] Mohit Iyyer, John Wieting, Kevin Gimpel, and Luke Zettlemoyer. Adversarial example generation with syntactically controlled paraphrase networks. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 18751885, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [4] Mingda Chen, Qingming Tang, Sam Wiseman, and Kevin Gimpel. Controllable paraphrase generation with a syntactic exemplar. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 59725984, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Pengyu Cheng, Martin Renqiang Min, Dinghan Shen, Christopher Malon, Yizhe Zhang, Yitong Li, and Lawrence Carin. Improving disentangled text representation learning with information-theoretic guidance. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7530-7541, Online, July 2020. Association for Computational Linguistics. [6] Pengyu Cheng, Weituo Hao, Shuyang Dai, Jiachang Liu, Zhe Gan, and Lawrence Carin. CLUB: A contrastive logratio upper bound of mutual information. In Hal Daumé III and Aarti Singh, editors, Proceedings of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 17791788, Virtual, 13-18 Jul 2020. PMLR. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [8] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [9] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [10] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [11] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [12] Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. The Stanford CoreNLP natural language processing toolkit. In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 55-60, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [13] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. ## A 作成したテストデータ 表 3 に,本研究で評価のために作成した例文の一部を,大力文及び参照文と共に示す. 表 3 評価用に用意した Quora のテストデータの一部. 作成した例文を太字で示している. source Is the iPhone really more expensive? Why or why not? reference Why is iPhone so expensive? exemplar Why is mathematics so hard? source reference exemplar source reference exemplar source reference exemplar Why is UK better than USA? Which country do you like the most, UK or USA? Why? Which sports do you like the most, soccer or basketball? Why? What are the movies worth watching after getting high ? Which are the Best movies to watch after getting high? Which are the best books to read after getting negative? How many songs can a 16 GB iPhone hold -LRB- approximately -RRB- ? How many songs does a 16 GB iPhone hold? How many calories does a Dominos pizza have? source reference exemplar source reference exemplar source reference exemplar source reference exemplar source reference Which are some of the most popular questions on Quora with high number of followers? Which question on Quora has the most followers? Which province in Canada needs the most immigrants ? What are the best tips to study philosophy? What are the best tips to save money? Why is space expanding? How and why is space expanding? How and why is history repeating? How can I download Tor browser? How do I download the Tor browser? How do I find the dipole moment? exemplar What is the best question anyone has ever asked you ? How did you answer? What is the best question you have ever been asked? source reference exemplar source reference exemplar source reference exemplar source reference exemplar source reference exemplar What is the best joke you have ever heard? Is it possible to make a time machine? Can we create a time machine? Can we survive a heart attack ? How can we make money from YouTube? How can you make money on YouTube? How can you find people on Instagram? Why China is threat to India? Is China a threat to India? Is Kngine a competitor to Google? How do I get a Rhodes scholarship ? What should I do to get a Rhode 's scholarship ? What should I do to become an automobile engineer? What are some ways to make more time? How do I make more time? How do I get more clients?
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-2.pdf
# 質問・応答集からの文選択による 雑談対話システムの学習 太刀岡勇気 デンソーアイティーラボラトリ ytachioka@d-itlab.co.jp ## 1 はじめに ユーザからの質問に応答するチャットボットのような対話システムでは,大量の質問・応答ペアを用意してユーザの質問と用意した質問との類似度に基づいて対応する応答を選択する用例ベースの手法がよく利用される [1]. 近年ではこのような方法がある程度実用化されてきたことから, 質問・応答だけでない,雑談のような,より難しい非タスク指向型対話システムの研究も盛んである. その場合, ルールを記述することはほぼ不可能であり, ユーザの発話は予見不能であることから,すべての対応関係を収集することは難しい. そこで seq 2 seq の手法 [2] が良く用いられる. seq2seq は, ユーザの発話に対するシステムの応答を翻訳問題として結びつけるもの [3] であり, どのようなユーザ発話に対しても応答を生成できるという利点がある一方で, 学習に大量のペアデータが必要であるという問題もある. 大量のテキストデータが利用可能な資源としては, twitterや『おーぷん 2 ちゃんねる対話コーパス [4]』がある.ただし,これをそのまま対話エージェントの応答生成に適用しようとすると, 文のスタイルが適さない点が問題になる1). 対話エージェントには, 特に商用に用いる場合, ある程度フォーマルで丁寧な応答が求められるからである. これに対して,「Yahoo!知恵袋」等の質問・応答集を使うと,丁寧に書かれていることが多いため,スタイルの問題は起こりにくい. さらに, すでに集めてある質問・応答集の再利用ができる.しかし, 質問・応答ともに長文であることが多いため, seq 2 seq の学習が難しいことに加え, 生成される応答が長すぎるという問題がある. 例えば後に示すように 『Yahoo!知恵袋』では, 100 文字程度の回答が多いが,音声での対応を考えた場合,エージェントが 1 1)特に後者では独特の関西弁風のスタイルが問題となる. \author{ 欅惇志 \\ デンソーアイティーラボラトリ \\ akeyaki@d-itlab.co.jp } 分間に話せるのは 300 文字程度なので, 100 文字発話するのには 20 秒程度かかる. 質問に対する必要な情報提供であれば適切な長さであるが,雑談としては応答が 20 秒続くとかなり長く感じられる。また, 現状の seq 2 seq 方式での生成では, それだけの長文を理路整然とさせるのは難しい.意味不明な文や自己矛盾した文が生成される可能性も高く, これはユーザの満足度を著しく低下させる.そこで,質問・応答集に対して適切な文選択を行い,ペアデー タを短い文で構築することで,この問題を解決することを試みる。選択法はいくつか考えられるため, ここでは可能な選択法を 7 種に関して, seq2seqによる応答文生成のパープレキシティと生成された応答文長の変化を検討した。 ## 2 seq2seq に基づく応答生成 ## 2.1 手法概要 翻訳での成功 [2]を受けて,対話でもソース (src) からターゲット $(\mathrm{tgt}) への$ 変換をニューラルネットで直接学習する seq2seq に基づく応答生成 [3] が用いられてきており, 雑談応答生成への適用も行われている [5, 6]. 通常入力は文字単位ではなく, 単語やそれに類するまとまりの単位とする。いくつかの方式が提案されているが,ここでは opennmt[7] で使われている固定次元の埋め込みべクトルに基づき LSTM で encode-decode する方式を採用した. ## 2.2 係り受け解析による冗長箇所の除去 seq2seqによる応答文には, 応答が相槌のような無難なものになりやすいという問題が指摘されている [5, 6]. また同一の語句の繰り返しが多くみられるという問題がある ${ }^{2)}$. 例えば「ステーキのステーキは,肉が柔らかくて美味しいですよね」というような過 応答文に繰り返しが増える傾向がみられた。 度に壳長な文が頻繁に生成され, これがユーザの満足度を著しく低下させる.そこで,係り受け解析を行い, 係元が係先と同じ名詞を含む場合は係元を削除することで冗長箇所を除去することとする.先の文に対しては,「ステーキの」が「ステーキは」にかかっているので,「ステーキの」を削除する。 ## 3 質問・応答集からの文選択 提案法では,質問・応答集を「.?」で文に分割し,そこから対象の文を選択することで,情報をなるべく失わずに,ぺアの文の長さを短くする.文選択には,以下の 7 種を検討した。 1. allpairs: 質問文と応答文の全組み合わせ 2. crosspairs: 質問文と応答文のはじめの文と終わりの文の最大 4 通りの組み合わせ 3. crosspairs2: 質問文と応答文のはじめの文とはじめの文,質問文の終わりの文と応答文のはじめの文の最大 2 通りの組み合わせ (下に示す first-first と last-first の組み合わせ) 4. longest: 最大の文字数の文同士の組み合わせ 5. last-first: 質問文の終わりの文と応答文のはじめの文の組み合わせ 6. first-first: 質問文と応答文のはじめの文とはじめの文の組み合わせ 7. first-first \& longest: first-first と longest の組み合わせ allpairs は, すべての組み合わせを考えるもので, 例えば質問・応答のペアが $\operatorname{src}$ が 2 文, tgt が 3 文からなる場合, この 1 ペアから $6(=2 \times 3)$ 通りのペアデータを作成する.質問文と応答文に関しては中間の文はあまり重要ではなく, はじめの文と終わりの文が重要であると考えられる 3$)$ ので,それらの組み合わせをとる crosspair と, 応答文についてははじめの文のみを追加した crosspair2 を検討した ${ }^{4)}$. また短い文は挨拶や「ありがとうございます」のように情報が少ないことが多いため, 最大の長さの文を組み合わせる方法も考えられる (longest). さらには crosspair2を別々にした last-first と first-first を検討し 3)特に質問文に関しては,はじめの文で「〜は〜ですか」のように質問したあとで「ちなみに〜です」のように補足を行う場合 (はじめの文が重要) と,「16歳です。~は〜ですか」のように自分の前提を述べた後に質問する場合 (終わりの文が重要) の 2 種類が典型的である. 4)応答文に関しても「通りすがりのものです. 〜です」のように,はじめの文に情報がない場合もあるが,質問文よりははじめの文が重要である比率が高いため, 応答文に関しては, はじめの文だけとした場合も検討した。 た。また first-first と longestを組み合わせた方法についても検討した。 3 手法 (first-first,last-first,longest) 以外はぺア数を増やすことができるため,学習データを拡大する効果も得られる可能性がある. ## 4 実験 ## 4.1 実験条件 seq2seq は大量のペアデータから学習する必要があるため, ベースのモデルは『おーぷん 2 ちゃんねる対話コーパス [4](以下 open2ch)』を用いて構築した $^{5)}$. ベースモデルの学習後, 質問・応答集でファインチューニングする.質問・応答集には,『現代日本語書き言葉均衡コーパス (以下 bccwj) [8]』に含まれる「Yahoo!知恵袋 (OC)」を利用した。OC から差別や性的な内容等を含む不適切な文を除外するため, [4] で行われているフィルタリング処理を行い,最終的に 5.4 万ペアが得られた. さらに, slack 上で収集した『テキスト雑談コーパス (以下 slack) $[9,10] 』$ を用いた。発話ぺア数は 1.4 万と少ないが,丁寧な口語調のデータである. 表 1 に学習に用いたペア数と平均文字数を示す. open2ch に比べると, bccwj と slack のペア数がかなり少ないことと, 文長が 3~4 倍程度とかなり長いことがわかる。 opennmt [7] を用いて seq2seq モデルを構築した.前処理に sentencepiece[11] を用いて 16,000ピースにより,文を分割した。これを 500 次元の埋め込みべクトルに変換し,LSTM2 層により encode し, LSTM と attentionを用いて decodeを行う。ビームサーチにより最終的な応答文を得る. open2ch の学習は 20 万回6)繰り返し行った.これに対して, 7 万回 open $2 \mathrm{ch}$ で学習したモデルを初期モデルとして, 学習率を低減させて bccwj+slack により最大 5 万回ファインチューニングを行う. 提案の文選択を行った場合を同じく表 1 の 3 段目に示す. longestを除き, open2ch とほぼ同等な平均文長を得ることができた 7 ) $。$ また異なる組み合わせを利用することでぺア数を増やすことができている.ただし(特に allpairs では),異なる質問に対して同一の応答が対応する,あるいは,同一の質問に対して異なる応答が対応する例が多い. 5)「サンガツ」「ワイ」等の open2ch に特有ないくつかの表現は,「ありがとう」「私」などの対応する語句と置き換えた。 6)エポックではなく, バッチ単位での繰り返し数である. 7)応答文は若干長い。 表 1 学習とテストに用いたぺア数と平均文字数. 検証データは別に用意 図 1 open2ch データベース学習時のパープレキシティ ## 4.2 結果 (パープレキシティでの比較) 図 1 に, open2ch で学習した際のパープレキシティを示す8),学習 (train), 検証 (valid), テスト (test) のすべてで繰り返しに伴い単調に減少している. 図 2 には,質問・応答集 (bccwj+slack) でファインチューニングした際のパープレキシティを示す. 検証は各手法に合わせて文選択を行ったもので評価した。テストは文選択をしない bccwj+slack の 1,999 ペアで行っているため, baseline のテストのみ学習とマッチした条件で,それ以外はミスマッチな条件になっている,そのため,すべての場合でテストのパープレキシティは baseline の場合に比べて悪化している. 個別にみると,まず,すべての組み合わせを使う 8)学習のパープレキシティは直近 1,000 回の平均を 1,000 回ごと, 検証とテストのパープレキシティはそれぞれ 1,000 回, 5,000 回ごとに測定した。以降も同一である. 図 2 質問・応答集 (bccwj+slack) でファインチューニング時のパープレキシティ allpairs は学習のパープレキシティも十分に低下せず最も悪い結果となった。これは上述の通り, 同一の (異なる) 質問に対して異なる (同一の) 応答が対応することで学習がうまくいかなかったためと考えられる. crosspairsに関しても同様の理由で学習のパープレキシティが単調減少せず,期待された学習データ拡大の効果は得られなかった. 最も検証のパープレキシティが小さくなったのは, first-first の 1 万〜2 万回のファインチューニングを行った場合であった. テストのパープレキシティでも first-first が最もよく,ミスマッチ条件にもかかわらず,マッチ条件の baseline と近い值となっている. first-first に longest を足すと検証のパープレキシティは安定したが,テストセットのパープレキシティは低下し 図 3 テストセット (bccwj+slack) の $\operatorname{src}$ に対して生成された応答文の平均文字数 た。これから文選択は first-first が最もよいと考えられる。 ## 4.3 結果 (文長での比較) 図 3 に,テストセット (bccwj+slack) に対して生成された応答文の平均文字数を示す. テストセットは,表 1 に示した通り, src が 77.4 文字, target が 102.4 文字であった. 全体として, ファインチューニングの繰り返し回数によらず,ほぼ文選択法により文長が決まっていることがわかる.個別にみると, baseline はかなり長く平均で 60 文字程度の応答を生成していた。それから longest, first-first_and_longest と続く.これらが平均で約 40 文字を超えている.一方,それ以外の方法では 40 文字以下となっていて, open2ch での文長と同等であり, first-first か crosspair2(first-first を含む) が最も文長が短くなっている. first-first による文選択では,元の文の情報低下を抑えながら (パープレキシティは維持しながら),文長を短くできているといえる。 ## 4.4 結果 (応答例と几長箇所除去の効果) 雑談を想定したユーザ発話 (上記テストセットには含まれない) に対する応答例を図 4 に示す. はじめに述べた通り, open2chの応答はエージェントとしてはふさわしくなく,これに限らず回答の多くが,「まじかよ $\cdots$, 「ありがとう!(もともとは「サンガツ!」)」,「そうなんか」になってしまう. baseline はスタイルはよいが冗長な出力が出ている.ただし 「ステーキのステーキは,...」に関しては,壳長箇所除去を行うことでかっこ内の文に変換できた ${ }^{9)}$. 提 ## \%open2ch 先週は神戸に行ったよ > まじかよ.... 明日は何しよっか > おーぷん民 昨日はステーキを食べたよ > ありがとう! ケーキを作ってみようと思って作り方を調べた > そうなんか ## \%baseline 先週は神戸に行ったよ> 神戸に行ったことないなあ 明日は何しよっか > 明日に備える 昨日はステーキを食べたよ>ステーキのステーキは,肉を食うのが一般的です (=ステーキは,肉を食うのが一般的です) ケーキを作ってみようと思って作り方を調べ た>ケーキやケーキ,ケーキ,ケーキ,お菓子, ( ...ケーキ,お菓子を繰り返す) ## $\%$ first-first 先週は神戸に行ったよ > 私も神戸に行ったことがあります 明日は何しよっか $>$ 明日休みます 昨日はステーキを食べたよ > 私はステーキを食べます ケーキを作ってみようと思って作り方を調べた > ケーキを作るのは簡単ですね 図 4 ユーザ発話 ('>’ の左) に対する生成された応答 ('>’ の右) の例 案の first-first は, 短い文で比較的適切な応答を返せている. ## 5 まとめと今後の課題 雑談対話システムの学習に,大量のデータがある質問・応答集を利用する場合,文長が長いためモデルの学習が難しく,生成される文が長くなりすぎるという問題があるため,文選択を行うことで文長を制限する方法を提案した. 7 種の異なる文選択法を検討した結果,はじめの文同士を組み合わせたものが最もパープレキシティが低く,文長も短くできることがわかった.今回は比較的単純な方法で文選択を行ったが,今後,重要文の推定に基づき,主題となる文の選択を行った場合との比較を行う予定である.  ## 参考文献 [1] 東中竜一郎, 稲葉通将, 水上雅博. Python でつくる対話システム. オーム社, 2020. [2] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proc. NIPS, 2014. [3] Oriol Vinyals and Quoc V Le. A neural conversational model. In Proc. ICML, 2015 [4] 稲葉通将. おーぷん 2 ちゃんねる対話コーパスを用いた用例ベース対話システム. 第 87 回言語・音声理解と対話処理研究会 (第 10 回対話システムシンポジウム), 人工知能学会研究会資料 SIG-SLUD-B902-33, pp. 129-132, 2019. [5] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proc. NAACL-HLT, pp. 110-119, 2016. [6] 高山隼矢, 荒瀬由紀. Distant supervision を用いた情報量を制御可能な雑談応答生成. 言語処理学会第 26 回年次大会発表論文集, pp. 323-326, 32020. [7] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander M. Rush. Opennmt: Open-source toolkit for neural machine translation. In Proc. ACL, 2017. [8] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 62014. [9] Hiroshi Tsukahara and Kei Uchiumi. System utterane generation by label propagation over association graph of words and utterance patterns for opendomain dialogue systems. In Proc. PACLIC-29, 2015. [10] 塚原裕史, 内海慶. 言い換えを利用した対話行為推定の汎化性能向上. 言語処理学会第 22 回年次大会発表論文集, pp. 87-90, 32016. [11] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proc. Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, 11 2018. Association for Computational Linguistics. [12] 工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, Vol. 43, No. 6, pp. 1834-1842, 2002.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-3.pdf
# Minecraft を用いた状況付けられたタスク指向型対話データの 収集 小河 晴菜 ${ }^{1}$ 徳永 健伸 ${ }^{1}$ 横野 光 $^{2}$ 1 東京工業大学 情報理工学院 2 株式会社富士通研究所 \{ogawa.h.ai@m, take@c\}.titech.ac.jp yokono.hikaru@fujitsu.com ## 1 はじめに 自然言語処理では,大規模なデータを用いてモデルを学習する手法が主流となっており,対話処理の分野もこの例外ではない. 雑談型の対話と比べて夕スク指向型対話のデータ収集は,タスクに相当する既存のデータを見つけるのが難しいことから,タスクに応じて人間を用いたデータ収集が必要となる。本稿では,Minecraft $(\mathrm{MC})^{1)}$ 上に構築したタスク指向型の対話データ収集基盤 [1](以下,DDCraft)を用いたデータ収集実験について報告する.MCをデータ収集基盤として使う利点は以下の 2 点である. 対話データの収集にクラウドソーシングを使う手法がある [2]. この場合,作業者の主な発話動機が対話目的の達成ではなく作業報酬となり,対話者が目的を達成するために行う発話とは動機が異なってしまう $[3,4]$. この動機のずれが,タスク本来の対話からのずれとしてデータに反映される恐れがある.MCを土台にすることにより,タスクを容易にゲーム化でき,ゲーム参加者の発話の動機を対話目的に近づけることができる. 人間と物理的な場を共有するロボットや,道案内タスクなどでは,言語情報に加えて対話者が視覚的・空間的な状況を共有することが重要である.このような状況付けられたタスク指向型対話データの収集には,仮想世界を用いた例 $[5,6]$ や現実世界で行った例 $[7,8]$ がある. MCには仮想空間を操作するための基本的な枠組みが用意されているため, MC を土台にすることにより,様々なタスクの状況付けられた対話データの収集が容易になる。 ## 2 関連研究 対象とするタスクにゲームの要素を導入する 「ゲーミフィケーション」[9]は,これまでにもデー 1) https://www.minecraft.net/ja-jp タ収集で活用されている。画像のラベル付けにゲー ムを利用した ESP game [10] は,インターネット上に公開され 1 万人以上のプレイヤーを集め,アノテーションタスクにおけるゲーミフィケーションの有用性を示した。また,Vannella ら [3] はバリデー ションタスクのための複数のゲームを提案し,インターネット上に公開したこれらのゲームの結果と, ゲームを用いない同様のタスクをクラウドソーシングの作業者に行わせた結果を比べ,ゲーム形式で行った場合のほうが結果の質が高いことを示した. 対話収集への適用例としては, Manuvinakurike ら [11] が,クラウドソーシングによって話し言葉での対話を収集するブラウザゲームを作成した他, Asher ら [12] が複数人で行うオンラインボードゲー ム上にチャット機能を実装し,複数人の書き言葉での対話を収集している。 これらの研究はゲームを用いてタスク指向型対話を収集しているが,タスクが固定されており,他のタスクにゲームを流用することができない。一方, DDCraft は MC 上における対話収集のための汎用的な機能を提供し,対話収集者はその上でタスクを設計するという点で異なる。これにより,対話収集者は $\mathrm{MC}$ 本来の機能を活用しつつ実装の手間を削減することができる. ## 3 対話データ収集基盤 DDCraft [1] は,MCサーバ上の仮想世界で行われる対話について,ペアごとに,発話内容,発話時の発話者の位置情報と視界の情報,操作可能な物体の操作ログを収集する。サーバに接続した作業者らを自動でマッチングし,対話ペアを生成した後,ペアごとの個別の仮想世界を用意する機能を持つ.これにより,データ収集者は作業者のペア組みを調整する必要がない. さらに,DDCraft は仮想世界内の地図画像を出力するなど,ゲームを設計するための補 助機能を提供する.これらの機能は $\mathrm{MC}$ の拡張機能として実装しており,MCにこれらを導入することで基盤を運用できる. ## 4 対話収集実験 DDCraft の基本的な機能を検証し,実際にどのようなデータが収集可能か, また, 状況付けられた対話の特徴である参照表現の誘発が行えるかを確認するためにクラウドソーシングを使って参加者を募った. ## 4.1 対話タスク 対話データ収集には,DDCraft 上で行う対話タスクの例として我々が考案した Mansion Taskを用いる. Mansion Task は協力的なタスク指向型対話を収集することを目的とした二人用のタスクで,Map Task [13] を元にしている.このタスクでは, 作業者はそれぞれ内容が一部異なる地図を渡される,地図には部屋の配置とゴール地点, 更にゴールに到達するために行うべき複数のサブタスクの情報が記されている. 作業者らの目的はこれらのサブタスクを達成し,ゴールに辿り着くことである. サブタスクを達成するための情報は二枚の地図に分割されて記載されるため,作業者らは対話によって情報を交換することになる.また,各サブタスクは二人が協力しないと達成できないよう設定されている. 本研究では,状況付けられた対話の特徴の一つである参照表現の誘発を目的としたサブタスクを設定した. Stoia ら [6]にならい, 同一の物体を複数配置することで, 特定の物体を表現しょうとした作業者に参照表現を使用させることを狙う.実験に用いた Mansion Task の設定の詳細は付録を参照されたい. ## 4.2 実験方法 クラウドソーシングサービスの Amazon Mechanical Turk(MTurk) ${ }^{2}$ 上で, Mansion Taskを用いた対話データ収集実験を行なった. MTurkでは作業者が行うタスク (HIT)を登録することで仕事を依頼できる. また,その際に受諾条件を設定できる。作業者は自分が行いたい HIT を選択し,受諾する。 今回の実験では作業者同士がペアを組む必要がある. ペア組みには基盤のマッチング機能を用い,我々は個々のぺア組みに関与せずに,サーバへの接続時間が合うよう HIT の説明内で大まかな接続推奨  時間帯を指定するにとどめ,自然にマッチングするようにした。 ## 4.3 作業者の募集 我々はまず,募集人数を 20 人 (10ペア分) として HIT を登録した.この試行では 5 人の作業者がサー バへ接続したが,接続時間がばらついておりぺアが組まれなかった. また, HIT の登録後 10 分未満で受諾人数が募集人数に達した. 受諾した作業者の中には,タスクを行わずに提出した作業者や,実行せず放置した作業者が含まれている。短時間のうちにそういった作業者で人数の枠が埋まってしまったことは, 1 回目の試行が上手く行かなかった一つの原因だと考える。 1 回目の結果を踏まえて,設定を二点変更した. まず,接続時間のばらつきに対応するため,接続推奨時間帯を 15 枠から 3 枠に削減した. また,タスクを実行できない作業者が HIT を受諾するのを防ぐため, 過去の成果の承認率と, MC のライセンスの有無を確認する設問への回答を受諾条件として追加した. その上で再度 HIT を登録したが,この 2 回目の試行ではサーバへの接続が一件のみだった. 我々はこの原因が追加した設問にあると考えている. 作業者が HIT の一覧を表示する際,自分が受諾条件を満たす HIT だけを抽出することができる.だが今回のような設問が設定されている場合,任意の作業者は初め条件を満たしていないため, 抽出表示した作業者には HIT が表示されない. そのため, 作業者数が大きく減ったのではないかと推測している. 設問を削除し,その分タスクを実行できない作業者が受諾しても募集人数が埋まらないよう,人数を 10 倍の 200 人に変更した. その上で 3 回目の HIT 登録を行なったところ,6人の作業者が接続し, 3 ペア分の対話を収集することに成功した. 接続推奨時間帯を狭めたことで,作業者の接続時間を重ねることができたと考えている.また,受諾人数が募集人数に達するまで一日半程度の猶予があったため, タスクを行える作業者が受諾する余裕があったと考えられる。この試行では,基盤の設定不足が原因でサーバへの接続に失敗した作業者が 4 人いた. これは HIT 説明の設定手順が主に文章で構成されていたため,理解しづらかった可能性がある. 説明に図を追加した上で 4 回目の募集を行った. この試行では, 13 人の作業者がサーバに接続した. うち 4 人は一度設定不足で接続に失敗したが,その 後接続に成功している。これは,設定手順の説明のわかりやすさを改善したことが有効に働いたと考えている。しかしながら,ペアが成立したのは 2 組のみだった.接続ログを調べたところ,接続推奨時間帯外の接続が多かった (13 人中 7 人). これが,ペア成立数が伸びなかった原因であると考えている. ## 4.4 募集における課題 4.3 節の結果から,DDCraft を用いた作業者の募集における二つの課題が示唆された。 一つ目は,DDCraft を用いるために,作業者が自ら拡張機能をインストールしなければならない点である. HITを受諾したが放置した作業者が多かった点から,接続するための設定が手間であると思われた可能性がある. 取得できる情報に制限がかかるものの, MC の拡張をサーバ側のみに留めるオプションを用意し,作業者が設定を行わずに接続できるようにすることで,この問題を緩和できると考える。 二つ目は,対話ぺアを組むために,作業者が同時にサーバに接続している必要がある点である. DDCraft は作業者のマッチングを自動で行うため, データ収集者はぺア組みを調整する必要がない。ただしその分,同じタイミングでサーバに接続した作業者がいなければ,作業者はタスクを行うことができない. これに対し, 我々は接続推奨時間帯を設定したが,4 回目の例からも分かるように,作業者が必ずしもその時間帯に接続を行うわけではない. 接続時間を指定するだけでなく,作業者のサーバ停留時間を延ばすことが重要であると考えられる。停留時間を延ばすための取り組みとして,我々は MC の特徴を活かし,作業者らが待機する仮想世界を探索して遊べるょうなものに設定している. 実験では,実際に遊んで待機する作業者が確認された. 現在の仮想世界は単純なものであるため,ミニゲームの追加などより面白さを増やす改良を行うことで,作業者が同じ時間にサーバに接続している状況を作りやすくできる可能性がある. ## 5 作業結果の考察 ## 5.1 作業者の動機づけ 表 1 にタスクを行った 10 人の作業者によるタスク後のアンケート結果を示す. アンケートは任意回答だったが,10 人全員から回答を得た.また,図 1 に自由記述コメントの抜粋を示す. アンケート では,「もう一度遊びたいか」という問いに対して “Yes” の回答が 8 割を占めており,「報酬がなくても遊びたいか」についても,少し消極的な回答が増えるものの, “Rather Yes”以上の回答が 8 割を占めている.これらの回答やコメントの内容から, 作業者が楽しんでタスクを行ったことが推測できる。このことから,ゲーム形式でタスクを行うことで,本研究が目的とする作業者の動機づけができていると考えられる。また,全てのペアが最後までタスクを達成しており,DDCraft での対話収集では,基盤の設定やペア組みなどの壁があるものの,それらを乗り越えれば作業者が意欲的にタスクに取り組むことが示唆された。 表 1 タスク後の任意アンケート結果. RN は Rather No, Ne は Neither, RY は Rather Yes を表す. 図1作業者によるタスクへの自由記述コメント (抜粋) ## 5.2 収集した対話データの特徴 表 2 に,収集した対話データの対話時間,発話数,参照表現および空間的な表現の出現回数を示す.ここで,参照表現・空間的な表現として「他との位置関係によって説明されているもの」「this, that などの指示語で説明されているもの」を数えた。一発話中に複数の表現が出現した場合,それぞれを一つとしてカウントする.また,対話 13 は収集実験の 3 回目の試行で,対話 $4 , 5$ は 4 回目で取得したものである. 対話はすべて英語のチャットで行われた. 各ペアを比較すると,対話 $1 \sim 3$ と 4,5 で発話数の合計が大きく違っている.しかし, 3 回目と 4 回目の試行ではタスク内容を変えていないため,作業者の性格が原因で偶然この差異が現れたと考えている。また,対話 3 のペアでは参照表現が一度しか出現していない. 作業者が入力したコメントによれば,このペアの主なコミュニケーションは MC 内のキャラクターの移動・腕の動きといった非言語情報 図 2 同一の対象に対する参照表現が現れた発話の内容,発話者の地図上の位置およびその視界. ここで,各発話は全て異なる対話のものである。また,地図は一部分のみを載せている。 で行われた,とあり,実際,収集した対話ログを見ると,このペアではタスクを達成するための操作に関する発言が 2 回しかされていない。 表 2 Mansion Task v2を用いて収集したデータの情報. 図 2 に,ある同一の物体に対して用いられた参照表現を含む発話と,その際の周辺情報を示す. 基盤は発話者の位置のみを記録するため,図には対話相手の位置情報は含まれない。三つの発話はそれぞれ別の対話であり,図内の破線で囲まれた物体 (感圧板) を踏むよう発話者が相手に指示した際のものである。同じ対象を表すのに,三人の発話者が異なる表現を用いていることがわかる。 それぞれの発話内容を見ると,対象から離れた位置で行われた 1 番の発話では建物内の位置を参照して対象を表現しているのに対し, 対象と近い位置で起きた 2,3 番の発話では発話者の位置を基準とした表現が用いられている. 収集した対話データからは,このような作業者の位置による表現の違いや,周囲の情報がなければ意味を理解できない発話が確認できた.MCの仮想世界を利用することで,状況付けられた対話が行われたことがわかる。 また,図2の「作業者の視界」は,各作業者が実際に見ていた光景からゲームのUIを除いたものである。現実世界で作業者の視線や視界の情報を得る ためには専用の機材が必要であるが,ゲームを用いれば,現実より単純化された視界ではあるものの,作業者の行動を妨げることなくこれらの情報を取得できる。これも $\mathrm{MC}$ を利用する利点の一つである。 以上の結果から,ゲームの世界であっても状況付けられた対話が収集できることが分かった。一方で,現状の基盤が記録していない,動作のような非言語情報や発話時の対話相手の位置情報が,より正確な状況の把握に必要であることが示唆された. それらの情報を取得できるよう基盤の改良を行うことで,より細かく作業者の行動を把握できると考えられる。 ## 6 おわりに 本研究では,MCを用いた対話データ収集基盤 DDCraft 上で,クラウドソーシングによって状況付けられたタスク指向型対話の収集を行なった。 その結果として,ゲーミフィケーションにより作業者が動機づけられることや,MCを用いることで状況付けられた対話を周辺情報と共に収集できることが確認できた。一方で,基盤を用いた対話収集における課題が確認された. 今後は,大規模な対話データ収集のためにこれらの課題の有効な解決方法を検討する必要がある他,今回収集を行わなかった非言語情報を収集対象に含めるよう基盤の改良を行う。 ## 謝辞 本研究は JSPS 科研費 JP19H04167 の助成を受けたものです. ## 参考文献 [1] Haruna Ogawa, Hitoshi Nishikawa, Takenobu Tokunaga, and Hikaru Yokono. Gamification Platform for Collecting Task-oriented Dialogue Data. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 7084-7093, Marseille, France, May 2020. European Language Resources Association (ELRA). [2] Walter Lasecki, Ece Kamar, and Dan Bohus. Conversations in the crowd: Collecting data for task-oriented dialog learning. In In Proceedings of the Human Computation Workshop on Scaling Speech and Language Understanding and Dialog through Crowdsourcing at HCOMP 2013., January 2013. [3] Daniele Vannella, David Jurgens, Daniele Scarfini, Domenico Toscani, and Roberto Navigli. Validating and extending semantic knowledge bases using video games with a purpose. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1294-1304, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [4] Mikhail Burtsev and Varvara Logacheva. Conversational intelligence challenge: Accelerating research with crowd science and open source. AI Magazine, Vol. 41, No. 3, pp. 18-27, 2020 [5] Donna K. Byron and Eric Fosler-Lussier. The OSU quake 2004 corpus of two-party situated problem-solving dialogs. In Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC'06), pp. 395-400, Genoa, Italy, May 2006. European Language Resources Association (ELRA). [6] Laura Stoia, Darla Magdalene Shockley, Donna K Byron, and Eric Fosler-Lussier. SCARE: A situated corpus with annotated Referring expressions. In Proceedings of the 6th International Conference on Language Resources and Evaluation, LREC 2008, pp. 650-653, 2008. [7] Susan E Brennan, Katharina S Schuhmann, and Karla M Batres. Entrainment on the Move and in the Lab: The Walking Around Corpus. In Proceedings of the 35th Annual Meeting of the Cognitive Science Society, CogSci 2013, pp. 1934-1939, 2013. [8] Kris Liu, Jean Fox Tree, and Marilyn Walker. Coordinating communication in the wild: The artwalk dialogue corpus of pedestrian navigation and mobile referential communication. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 3159-3166, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [9] Sebastian Deterding, Dan Dixon, Rilla Khaled, and Lennart Nacke. From game design elements to gamefulness: Defining "gamification". In Proceedings of the 15th International Academic MindTrek Conference: Envisioning Future Media Environments, MindTrek '11, p. 9-15, New York, NY, USA, 2011. Association for Computing Machinery, [10] Luis von Ahn and Laura Dabbish. Labeling images with a computer game. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, CHI '04, pp. 319-326, New York, NY, USA, 2004. ACM. [11] Ramesh Manuvinakurike and David DeVault. Pair me up: A web framework for crowd-sourced spoken dialogue collection. In G.G. Lee, H.K. Kim, M. Jeong, and J.H. Kim, editors, Natural Language Dialog Systems and Intelligent Assistants, pp. 189-201. Springer International Publishing, Cham, 2015. [12] Nicholas Asher, Julie Hunter, Mathieu Morey, Benamara Farah, and Stergos Afantenos. Discourse structure and dialogue acts in multiparty dialogue: the STAC corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 27212727, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [13] Anne H. Anderson, Miles Bader, Ellen Gurman Bard, Elizabeth Boyle, Gwyneth Doherty, Simon Garrod, Stephen Isard, Jacqueline Kowtko, Jan McAllister, Jim Miller, Catherine Sotillo, Henry S. Thompson, and Regina Weinert. The HCRC map task corpus. Language and Speech, Vol. 34, No. 4, pp. 351-366, 1991. ## 付録:Mansion Task の詳細 本節では,本文中で触れた Mansion Task の設定について述べる. 図 A1 に,作業者二人に分けて与えられる情報を纏めた Mansion Task の地図を示す.この地図は, DDCraft の地図画像生成機能が出力した画像に,矢印や説明書きを加えたものである。これらの説明は,作業者の発話に影響を与えないよう記号のみで記した。作業者に与えられる際は,一方の地図には図の “RED” と“YELLOW”に関する説明のみが,もう一方には “BLUE”と “GREEN”に関する説明のみが記載される。 図 A1 Mansion Task の地図 (作業者二人分の情報を統合したもの) このタスクの目的は,スタート地点の目の前にあるゴールに辿り着くことである。ただし,ゴールの前には扉があり,作業者らはその扉を開くために四つあるサブタスクを達成する必要がある. このサブタスクの達成方法は,すべて「閉ざされた扉を開け,その奥のレバーを起動する」というものである. 扉の開け方はサブタスクごとに異なる. 図 A2 にサブタスクの扉を示す. 各サブタスクの扉の上部には色のついたマークが記されており,これらはそれぞれ地図の RED, BLUE, YELLOW, GREEN に対応している. サブタスクの扉を開けるには,地図の情報に従って仮想世界内の操作可能な物体 (ギミック) を操作する必要がある. Mansion Task のギミックは三種類あり,右クリックで起動できる「レバー」の他に,右クリックで起動できるが数秒後に起動状態が解除される「ボタン」,上に乗っている間起動できる「感圧板」が存在する. 図 A3 にこれらのギミックを示す. 次に,各サブタスクの扉を開ける方法について述べる.RED は,片方の作業者がボタンを押すことで離れた位置にあるドアを開け,その間にもう一方の 図 A2 サブタスクの扉. 扉の上に色のついたマークが示されている. 図はRED 図 A3 ギミックの一覧. 左から,ボタン,感圧板, レバー 作業者がドアの奥にあるボタンを押すことで達成できる.BLUEでは,五つ並んだ感圧板のうち正しい二つを同時に踏むことでサブタスクを達成できる。 YELLOW は,一方の作業者がある部屋の感圧板を踏んで別の部屋にあるドアを開け,もう一方がドアの奥にある感圧板を踏むことで達成できるサブタスクである。このサブタスクのみ,二人の作業者らが別々の部屋で作業を行う.GREEN は,ある部屋の向かい合う壁にそれぞれ二つと三つ存在するボタンの中から,正しい二つを同時に押すことで達成できる. RED と YELLOW は同様に「一方が扉を開け,もう一方がその奥のギミックを操作する」というサブタスクであるが,REDでは作業者らが同じ部屋で作業を行い,相手の行動を見ることができるのに対し,YELLOW ではそれぞれ別の部屋でギミックを操作する必要があり,自分の作業の結果や相手の動きが見えないという点で異なる。また,BLUE と GREEN はどちらもギミックを同時に操作するサブタスクであるが,感圧板の上に立ち続けていればよい BLUE に対し,GREEN はボタンを押した後の数秒間しかボタンが起動状態にならないため,タイミングを合わせなければならないという点で異なる. これらのサブタスクの達成順序は問われないため,作業者らは自由な順序でそれぞれのサブタスクを行う。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P8-4.pdf
# SentencePiece を用いたキャラクターの特徴語抽出 岸野望叶 茨城大学工学部情報工学科 17t4036s@vc.ibaraki.ac.jp } 古宮嘉那子 茨城大学理工学研究科工学野情報科学領域 kanako.komiya.nlp@vc.ibaraki.ac.jp ## 1 はじめに 自然言語処理の分野では、ジェンダー、または年代などのキャラクターの特徴表現に注目した研究がなされている。しかしこれらの特徴語は、主に年代やジェンダーの分類にとどまり、個々のキャラクターの特徴的な話し方については注目されてこなかった。そこで本研究では、年代やジェンダーに限らずどのような言葉がキャラクター性を表しているかを抽出、分析した。 Mecab などの従来の形態素解析器では、キャラクターのセリフのような砕けた表現や、辞書に載っていないキャラクター固有の語尾などの分割が上手くできない。そのため、SentencePiece を使ってセリフを分割することで頻出する文字列の並びとしてセリフから特徴的な部分を切り出すことでよりキャラクター性をとらえた表現の抽出を行う手法を提案する。また、 $\mathrm{TF}$ ・IDFにより、性別、年代別、キャラクター別に特徴づける部分の重み付けを行い、それぞれの特徴にあった言語表現の抽出を行った。 ## 2 関連研究 宮崎ら [1] は、部分的に発話を書き換えることによって話者のキャラクタ性を表現する技術の実現を目指し、話者のキャラクタ性に寄与する言語表現の基礎的分析を行った。また、宮崎らのその後の研究 [2] では対話エージェントに発話にキャラクタ性を付与し、かつバリエーションを豊かにする方法として、各文節の機能部を目的のキャラクタに適した確率で適した表現に書き換え、キャラクタ性が読み手に伝わるかの実験を行った。また、音変化表現に注目し、それらを収集、分類を行った論文もある ([3])。また、奥井ら [4] はポインタ生成機構から、複数の異なるキャラクター応答を参照しながら少量データで学習する研究を行っている。 ## 3 SentencePiece による特徵的な単語の抽出 キャラクターのセリフは、語尾にキャラクターの特徴を表す言葉がついていたり、砕けた表現だったりと、辞書に載っていない単語も多く出現する。 ゆるキャラの「ふなっしー」のように、語尾に「〜 なっしー」とつけるようなものや、「危ない」という単語を「危ねえ」と変化していたりなどが例に挙げられる。そのため、辞書を使った既存の形態素解析では上手く特徴をとらえキャラクターのセリフ分割することが難しいと考えられる。そこで本稿では、 SentencePiece によってキャラクターコーパスを分割し、それによって得た単語を TF・IDFによって重み付けすることで、キャラクターの特徴と言える部分を抽出する手法を提案する。 手法の評価のため、求めた $\mathrm{TF}$ ・IDF の値を入力べクトルとしてサポートベクターマシン(SVM)で性別、年代の分類を行い、既存の形態素解析器と比較した。 ## 4 コーパス インターネットから 22 作品、100人のキャラクターのセリフを収集した。以下このセリフ集をキャラクターコーパスと呼ぶ。収集方法には、以下の三つを利用した。 1. インターネットに載っているアニメ・ゲームのセリフのまとめサイトから収集 2. アニメ動画サイトから得る 3. 漫画の電子書籍から、文章検出アプリを使ってテキスト化 キャラクター選ぶ際は、作品内でセリフの多いキャラクターを優先的に集めた。また、メインキャラクターとして出てくるキャラクターの年代は少年や青年に分類される者が多くなることが予想されたため、老人や子供に分類されるキャラクターでセリフの量が多いキャラクターは優先的に選出した。 ## 5 キャラクターの特徵語抽出の実験 ## 5.1 SentencePiece による特徵語抽出 SentencePiece とは、文章から直接分割方法を学習し、文章をサブワードへ分割するものである。サブワードとは、事前に単語の出現頻度を調べ、出現頻度の低い単語は文字やより小さい単語に分解するという考え方である。つまり SentencePiece では、辞書に載っている単語ではなく、出現頻度が高い文字列を1つの単語として扱う。この実験では、 SentencePiece の Python モジュールを利用した。1) SentencePiece による特徴語抽出の手順は以下の通りである。まず作成したキャラクターコーパス全体を入力とし SentencePiece で分割モデルを作成する。 この際単語数は 1 万個に設定した。また同時に単語リストも作成した。作成した単語リストから、漢字 1 文字の単語を削除した。これは漢字 1 文字の単語はキャラクター性を表すことはないと考えたからである。次に作成した分割モデルを使ってキャラクターコーパスを分割する。作成した単語リストと分割したキャラクターコーパスを使って TF・IDFを求める。TF・IDF は次の式で求めた。 $ t f(t, d)=\frac{n_{(t, d)}}{\sum_{s \in d} n_{(s, d)}} $ $t f(t, d)$ : 文書 $d$ 内のある単語 $t$ の $T F$ 値 $\left.n_{(} t, d\right)$ : ある単語 $t$ の文書 $d$ 内での出現回数 $\sum_{s \in d} n_{(}(d)$ : 文書 $d$ 内のすべての単語の出現回数の和 $ i d f(t)=\log \frac{N}{d f(t)} $ $i d f(t)$ : ある単語 $t$ の $I D F$ 値 $N$ : 全文書数 $d f(t)$ : ある単語 $t$ が出現する文書の数 $ T F \cdot I D F=t f(t, d) \cdot i d f(t) $ 性別ごとの特徴語の抽出は、割合を使った方法と、 $\mathrm{TF}$ ・IDFを使ったやり方の二通りの方法で行った。割合を使う方法は、 $ \frac{\left.n_{(} t, d 1\right)}{\left.n_{(} t, d 2\right)} $ $\left.n_{(} t, d 1\right)$ : ある単語 $t$ の文書 $d 1$ 内での出現回数 $\left.n_{(} t, d 2\right)$ : ある単語 $t$ の文書 $d 2$ 内での出現回数の式で求めた。この際、 $\mathrm{d} 1$ と $\mathrm{d} 2$ は男性または女性の全キャラクターのセリフ集とする。片方の出現回数が 0 回の単語は、 0 の代わりに 0.001 で計算を行い、スムージングを行った。(4) 式は数値が大きくなるほど、その単語は片方の性別のみによく使われていることを示す。 性別の TF・IDF 値を求めるときは、どちらかの性別の全キャラクターのセリフを 1 文書とし、対する性別は各キャラクターのセリフをそれぞれ 1 文書とする。年代別の際は、各年代のキャラクターのセリフを 1 文書とした。キャラクターごとの際は、キャラクターコーパス全体を全文書、各キャラクターのセリフを 1 文書とした方法と、キャラクターコーパスを作品ごとに分け、作品ごとのセリフを全文書とし、その中での各キャラクターのセリフを 1 文書とする方法の 2 通りで行った。以降前者を全文書、後者を作品別文書と略記する。 ## 5.2 Mecab による特徴語抽出 キャラクターコーパスを Mecabを使って分割し、分割されてできた単語を集めた Mecab 単語リストを作成した。SentencePiece と同様に、性別、年代別、 キャラクター別で TF・IDFを求めた。 ## 6 結果 得られた単語の $\mathrm{TF} \cdot \mathrm{IDF}$ 値上位 10 単語を表 1-4 に示す。また、キャラクター別の特徴は、一部を結果例として載せる。例として挙げるキャラクター は、アニメ「約束のネバーランド」からエマ、アニメ「エヴァンゲリオン」からシンジ、ゲーム「ドラゴンクエスト」からヤンガスである。 ## 7 SVM による分類実験 求めた TF・IDF 值を入力として SVMを用いて性別、年代の分類をした。性別は、男性、女性、その他の 3 種類に分類をおこなった。アニメなどに登場するキャラクターには、性別不明のキャラクターもいるが、そのような場合はその他に分類する。年代は、1. 子供 ( 12 歳)、2. 少年 ( 12 歳 17 歳、 18 歳の学生)、3. 青年 (18 歳 29 歳)、4. 大人 (30 歳 49 歳)、5. 老人 (50 歳〜) の 5 種類に分類を行った。 実験は 5 分割交差検証により行った。比較に用い丞既存の辞書を使った形態素解析器には Mecabを SentencePiece Mecab 表 1 性別特徴語 表 2 年代別特徴語 表 3 キャラクター別特徴語全文書 表 4 SentencePiece キャラクター別特徴語作品別文書 利用した。この実験では、sklearnをライブラリとして利用した2)。SVM の入力は、キャラクター 1 人を 1 ベクトルとした。性別の分類では SentencePiece で得られた全単語の TF・IDF 值を入力した場合、TF・ IDF 値の男女それぞれ上位 1000 単語を大力とした場合、Mecab で得られた単語を入力とした場合で比較する。年代の分類では、SentencePiece で得られた全単語の TF・IDF 值を入力した場合、TF・IDF 值の各年代それぞれ上位 500 単語を入力とした場合、 Mecabで得られた単語を入力とした場合で比較を行った。 性別、年代の分類結果は以下の表 7-8 に示す。 表 5 性別データ数 表 6 年代別データ数 ## 8 考察 表 1 から SentencePiece を用いて抽出した特徴語のほとんどが性別に特徴的な単語であること、また、特に一人称や語尾が特徴として抽出されやすいことが分かった。また SentencePiece では、「でがす」「わよね」「のね」などのような辞書に載っていない表記も取ることができた。年代別の特徴語は、 SentencePiece、Mecab どちらも固有名詞が多く、特徴的な表記を取ることができなかった。その理由としては、年代ごとに共通する表記が少なかったことが考えられる。また、大人世代と老人世代は一見固 2) https://sklearn.org/ 表 75 分割交差検証性別分類 表 85 分割交差検証年代別分類 有名詞が少なく特徴語が取れているようにみえるが、これは年代の特徴というより、その年代の中のあるキャラクターの特徴である。このような結果になった要因として、大人世代と老人世代は人数が少なかったこと、その中でもキャラクターのセリフ量にばらつきがあり、セリフの多いキャラクターの特徵になってしまったことが挙げられる。キャラクター別の特徴語は、こちらも SentencePiece、Mecab 両方で固有名詞や一般名詞がよく出てきた。しかし、Mecab のほうでは「アッシ」という単語が「アッシ」だったり「シ」だったりと、文脈によって分割のされ方が変わってしまった。SentencePiece の手法では、キャラクターコーパスを作品ごとに分け、その中で $\mathrm{TF}$ ・IDF 値をとることで、表 4 のように、より特徴とは言えない固有名詞や一般名詞を削除し、特徴語のみをとることができた。 SVM の結果を見ても性別年代別共に SentencePiece で分割した全単語の TF・IDF 值を入力としたときが最もよい精度となった。 ## 9 まとめ 本稿では、SentencePiece を用いてアニメなどのキャラクターのセリフを分割し、TF・IDF 值で重みづけをすることによって、既存の辞書を用いた形態素解析器ではとれなかったキャラクターに固有の特徴語を抽出したことを示した。また、抽出した特徴語を素性としてキャラクターの性別と年代を分類したところ、MeCabを用いてセリフを単語分割した場合に比べて、分類精度が向上したことを示した。 ## 謝辞 本研究は、茨城大学の特色研究加速イニシアティブ個人研究支援型「自然言語処理、データマイニングに関する研究」に対する研究支援および JSPS 科研費 17KK0002、18K11421 の助成を受けたものです。 ## 参考文献 [1] 宮崎千明, 平野徹, 東中竜一郎, 牧野俊朗, 松尾義博, 佐藤理史. 話者のキャラクタ性に寄与する言語表現の基礎的分析. 言語処理学会第 20 回年次大会発表論文集, pp. 232-235, 2014. [2] 宮崎千明, 平野徹, 東中竜一郎, 牧野俊朗, 松尾義博, 佐藤理史. 文節機能部の確率的書き換えによる言語表現のキャラクタ性変換. 人工知能学会論文誌, Vol. 31, No. 1, pp. DSF-515, 2016. [3] 宮崎千明, 佐藤理史. 発話テキストへのキャラクタ性付与のための音変化表現の分類. 自然言語処理, Vol. 26, No. 2, pp. 407-440, 2019. [4] 奥井颯平, 中辻真. ポインタ生成機構を用いたキャラクター応答生成の検証. 第 34 回人工知能学会全国大会論文集, pp. 1I4-GS-2-01, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/