filename
stringlengths 1
10
| text
stringlengths 33
111k
| category
stringclasses 9
values | license
stringclasses 1
value | credit
stringclasses 5
values |
---|---|---|---|---|
P8-5.pdf | # 駐車記録を支援する車載器における対話アーキテクチャ
徳久雅人 木村周平
鳥取大学 工学部
tokuhisa@tottori-u.ac.jp
## 1. はじめに
本研究では, 自動車旅行を支援する車載器の開発を進めている[1]. 車載器はユーザに音楽再生や観光ガイド[2]などのサービスを提供する.ユーザと同行することでユーザに適したサービスとしたい. ユーザ適応のためにユーザに関する情報が必要である. 本稿ではユーザの情報として駐車地点名および駐車期間中の事態 (ユーザの体験や感想等)を扱う.
駐車地点名および事態は, ユーザから入力される. しかし,ユーザは乗車時に入力し忘れることがある. そこで,ユーザからの入力(ユーザ主導対話)を待つだけでなく, 車載器(システム)からユーザに問い掛けを行うこと(システム主導対話)を可能とする対話アーキテクチヤの構築を本稿の目的とする.
本稿では, 欲求・感情を考慮した処理部で対話ア ーキテクチャを構成することを提案する.ユーザ主導対話のためには認識およびサービスの処理部を働かせ, またシステム主導対話のためには欲求に起因する対話管理を追加して働かせる. さらに,対話行為の論理的な側面だけでなく感情の主観的な側面も含めた素性設計により, 対話管理モデルの機械学習を容易に実現する方法を示す。
## 2. 対話アーキテクチャ
車載器の対話アーキテクチヤを, 岡田の心のモデル[3]をベースにした処理部で構成する(図 1). 本章では,処理部の動きを対話例に沿って概説する。
対話例 1:ユーザ主導対話
1User(以下 U): Wikipedia で検索してください 2System(以下 S): 何を調べますか
3U: 鳥取砂丘です
(S: 鳥取砂丘のページを読み上げる)
ユーザの発話 (1U) を認識部が解析する. 観光ガイドサービスの検索メソッドが起動する.クエリをユ ーザに質問する (2S). $3 \mathrm{U}$ を受けて認識部は観光ガイドサービスに「鳥取砂丘」を添えてコールする。観光ガイドサービスがガイドを始める[4].
対話例 2 : システム主導対話
(初期:駐車地点名が未登録である。)
図 1. 心のモデルに基づく対話処理部の構成
1S: 駐車地点名を教えて下さい
2U:ここは砂の美術館です
(S: 地点名を車載モニタに表示する)
初期状態は走行軌跡サービス (ServiceTraceDB) に問い合わせることで得られる。欲求部がその確認結果 (未登録)を受けてプラン部に反応を要請する.反応として ServiceTraceDB に地名の推定値を要求する。推定値がないので質問する(1S). $2 \mathrm{U}$ を受けて,地点名をServiceTraceDB に登録する。
## 対話例 3:感情の関わり
$1 \mathrm{U}:$ ここはエスマート湖山店です
(S: 駐車地点名を登録する.
事態が未登録である。事態を推定する.)
2S: 食品を買いましたか
3U: はいそうです
(S: 事態を車載モニタに表示する)
ユーザ主導で駐車地点名が登録される(1U). 欲求部は事態が未登録であることを受けてプラン部に反応を要請する。その結果, ServiceTraceDB に事態の推定値を要求する。過去の「エスマート湖山店」 での記録から事態が推定できたので,感情部が期待を生起させる.期待できるので推定值を用いた確認を発話する(2S).
## 背景にある処理
認識部, サービス部, 欲求部, 感情部の処理結果は言語部に報告される。言語部は対話文脈部やプラン部に報告を配信する。対話文脈部は対話処理用に
報告を取捨選択しシステムの状態としてまとめ, プラン部に提供する. プラン部はシステムの振る舞いにタイミングを合わせてアクションを実行する.
## 3. システム主導と対話管理
本章では,情報収集のための車載器において,システムが対話を動機付ける部分, および,状況に応じて対話の進行を管理する部分について説明する.
## 3.1 欲求による動機付け
本稿では車載器に次の 2 つの欲求を設ける。
- 駐車地点名 (parking) を知る欲求
- 駐車期間中の事態 (affairs) を知る欲求
なお,欲求の生起については 4 章で述べる.
## 3.2 管理されるアクション
欲求を基準にアクションを定義する。「Xを知る欲求」に対応するアクションの一覧を付録 A1 に示す.「act_」はシステムが行うアクション,「res_」 はユーザが行うアクションである. アクションのタイプとして, 質問 (ask), 確認 (confirm), 伝達 (inform), 肯定や同意 (yes), 否定や拒否 (no), 不明 (unknown), 主張の取り込み (acknowledge), および, 話題終了 (close) がある. 一般に対話行為と呼ばれる. 話し手から聞き手に向けられるため, 本稿では「外向きのアクション」と呼ぶ. さらに,「内向きのアクション」を導入する。「infer」は推論を行らアクションでありシステム内部での動きを指す. 推論処理は負荷が高いため頻繁に実行してはいけない. 発話のタイミングに合わせて実行することが適切であるため, 管理されるアクションとする.
## 3.3 アクション選択の基準と素性
アクションの選択基準として以下を設ける.
(a) 論理的基準
(b) 主観的基準
## 3.3.1 論理的基準と素性
論理的基準は, (a1) 行為に必要な事柄, (a2) 行為により確定する事柄, および, (a3) 重複発話の回避のための事柄がある.
例えば,「駐車地点名の確認」の行為は「ここはエスマート湖山店ですか」という発話文に対応するのだが,確認内容として具体的な店名が得られていること,および,何度も確認しないことに注意して選択される. 他に, 「駐車地点名の肯定」(はい,そうです) の行為は, 「仮定された地点名」があるときに意味をもつ行為であり, 行為の結果, 「真の地点名」が得られることになる.
論理的基準を扱うために素性として以下の 3 つを導入する.
-var_temp_ $X=0$ or $1: X$ の仮り值を有するか
- var_real_ $X=0$ or $1: X$ の真値を有するか
- hst_ $A_{-} X=0$ or $1: X$ の行為 $A$ を実行したか
ここで $X$ は欲求内容 \{parking, affairs\}, $A$ はアクションタイプ \{infer, ask, .., close \} である.
## 3.3.2 主観的基準と素性
発話を選択する理由が多様である。例えば,駐車地点名が推定されているとき,「エスマート湖山店ですか」とも「ここはどこですか」とも尋赦ることができる。地点名を言うことが面倒だったり, 珍しい名前なので無理に言ってみたりするのかもしれない. 細かな事柄を素性に入れることができれば良いが, 車載器のサービスと釣り合う実装作業であるかを考えておきたい. 本稿では, 感情というラベルで細かな状況をまとめることとし, 非 end-to-end 型コ一パスベース機械学習において簡単に学習データを作成できることを狙う.
主観的基準は,(b1)欲求,および,(b2) 感情である. 欲求は, 既に述べた 2 つを本稿では扱う. 感情は,「ユーザから事態についての返事が得られる期待」を扱う。素性として以下の 2 つを導入する。
-desire_know_ $X=0$ or $1: X$ を知る欲求が生起
- emotion_expectancy_response_affairs $=0.0 \sim 1.0$ : 上記の期待が生起
## 3.3.3 アクション知識の記述
対話管理での選択において, 複数欲求の生起に対しての選択,アクション間の選択,対話継続の選択などが多様にあるように見えるかもしれない。これらを考慮してアクション知識を記述するのだろうか? 本稿ではそうせず,1 つのアクションの知識にはそのアクションのためだけの条件的な記述を行うこととする.他のアクションとの競合解消は, 対話文脈で得られる全体的な状態における識別問題として扱う。
アクション知識には,プランニングに用いられる
「前提」と「効果」の属性を参考にする。しかし,本稿は, ゴール状態を目指す効果やその前提を連鎖させるプランニングを行うものではない.
論理的基準のための素性を,前提と効果の位置に記述する. 欲求の素性を, 前提の位置に記述する.感情の素性は, 必ずしもアクションの知識に記述するわけではない。
具体例を付録 A3,A4 に示す. 前者は駐車地点名
を推定するアクションの知識である. 内向きのアクションである (:inward). 前提 (precondition) には, 駐車地点名を知る欲求の生起, 仮りの駐車地点名が無いこと, 真の駐車地点名が無いこと, 駐車地点名の推論が未実行であることが記述されている.
効果 (effect) には,推論が実行済みであること,
仮りの駐車地点名が推論処理に応じて決まること (exsit)が記述されている。
## 3.4 論理と諸事情を考慮した学習
アクション選択を対話状態からの識別問題として扱う。まず,対話文脈として徐々に送られてくる素性 feature を蓄積する. 次に, アクション選択の要請があると, 素性をまとめて対話状態 state に変換し, 状態に応じてアクションの予測を行う.
$
\begin{gathered}
\text { action }^{*}=\underset{a \in \text { Actions }}{\operatorname{argmax}} \operatorname{Predict}(a \mid \text { state }) \\
\text { state }=\operatorname{vector}(\text { feature }, \ldots)
\end{gathered}
$
学習用のコーパスには, 初期設定として欲求や感情の素性を記入できる. 対話の進行に合わせてシステムやユーザの発話に対応するアクションを記述できる. 対話の途中で生起する感情や推定される感情などの処理結果も素性として追記できる.
コーパスからの学習データの自動生成を次の手順で行う(図 2).まず, 初期設定の素性に, 最初のシステムのアクションの前提に記述されている素性を重ねる。得られた素性集から状態べクトルを生成する. この状態ベクトルを入力状態とし, システムのアクションを出力目標とするぺアを,学習データに加える. 次に, システムの 2 番目のアクションのための状態べクトルは, 先ほど得た素性集合に最初のアクションの効果に記述されている素性を重ね, さらに 2 番目のアクションの前提の素性を重ねることで生成する. 状態ベクトルと 2 番目のアクションのぺアを学習データに加える。なお,ユーザのアクションや各種処理による素性を重ねられる。
## 3.5 プラン実行における同期と割り込み
プラン部の処理は図 3 の状態遷移に従う. システム全体の状態は言語部からの配信を通じて把握する.そのためアクションの実行結果が得られてから, その影響がシステム全体に伝わり終えるまでを考慮した同期が必要である.
しかし, 感情や欲求に対応した判断はこうした同期にさらに割り込むものである. そこで, 欲求・感情の状態は言語部の配信と異なる経路でプラン部に伝わるようにしている。これにより, 生起や躊薯に敏感に反応してアクションの中止が可能となる.
図 2.コーパスからの学習データの生成
図 3 プラン部の状態遷移図
## 4. 対話に至る処理
2 章で処理の全体像を示し, 3 章で対話処理の中心部として欲求の生起後からアクション選択までの部分を示した. 本章では, 欲求の生起前について処理部ごとに説明する.
## 4.1 サービス部
サービス部の影響で, 感情や欲求が生起するので, まずはサービス部を説明する。走行軌跡サービス ServiceTraceDB は走行軌跡の保存と検索を行う.自動車のエンジンの始動から停止までの地点の時系列を 1 つの軌跡とする.地点は約 $100 \mathrm{~m}$ 毎に記録する. 駐車地点には地点名および事態を記録する。同じ地点名を有する近隣地点の集合を場所として記録する.ユーザとともに訪れた施設などの場所が管理できる[5].
本稿では以下の 4 つの機能を使用する.
地点名検索: 指定地点の地点名を返す.
事態検索: 指定地点に登録された事態を返す。
地点名推定: 指定座標を含む場所の地点名を返す。
事態推定: 指定座標を含む場所の事態を返す.
2 つの検索は, 単に登録された値を返す. 駐車地点名を知る欲求, 事態を知る欲求の直接の生起要因となる。地点名推定は, 座標に関するガウス分類器により指定座標が強く属する場所 (地点のクラスタ) を識別し, その場所の名前を返す. 事態推定は同様に場所を識別し,その場所を構成する地点における事態集を返す.
事態推定においては,未登録頻度,高頻度語(一般名詞 $N$, 开変接続名詞 $N S$, 自立動詞 $V$ ), 高頻度語を含む単語 Trigram $(N+P+V, N+P+N S$. ただし $P$ は助詞)を求める。例えば,「エスマート湖山店」の事態推定を行うと, 高頻度語が「買う」であり高頻度の Trigram が「食品を買う」となる。
## 4.2 感情部
システムの感情の生起を処理する.処理の原理は生起要因を検出する処理を,検出先のモジュールに組み込む形式である[6].
期待の感情「ユーザが事態を答える」の生起を EmotionExpectancyResponseAffairs が担当する. その生起は, 4.1 節で示した事態推定の内容に基づく方法である. Trigram が得られた場合を期待 1.0, Trigram は無いが高頻度語が得られた場合を期待 0.8 , 未登録頻度の方が高いが訪問頻度が低い地点であれば期待 0.3 , 未登録頻度が高く訪問頻度が高い地点であれば期待 0.0 とする. 期待の度合いは現在のところ試験的に与えた。
## 4.3 欲求部
システムの欲求の生起・躊躇・充足を処理する.欲求は充足されていない状況が続くことで生起への度合いが高まるものとした。時間周期で活性化するスレッドにより状況を検查し,閾値を超えることで欲求の生起とする.
駐車地点名を知る欲求 DesireKnowParking および駐車期間での事態を知る欲求 DesireKnowAffairs を,4.1 節の地点名検索および事態検索をそれぞれ用いて実装する.
自動車のエンジンを始動後, 車載器が起動する.
一ザ主導による地点名・事態の入力が無いと判断する時間の設定は試験的に与えている.
ユーザの応答が事態入力を拒むものであれば,知
る欲求は躊躇の状態となり, システム主導の対話が中止となる。躊躇基準によりシステムの主張の強さという性格付けを行うことが可能である.
## 5. 動作確認
学習データの規模は, 素性 57 次元, アクション 41 次元, ペア数 52 件であった (本稿以外の素性・アクションを含む).走行試験にて欲求生起による駐車地点名や事態の問い掛けを確認した。感情の効果として, 車載器からの質問の抑制が見られた。例えば,自宅において,事態がほぼ登録されていないため期待されず,質問されなかった。
## 6. おわりに
本稿では,車載器に駐車記録を登録するための対話処理のアーキテクチャを示した。構築すべきものとしてアクション知識とコーパスがあるが,知識はアクションの論理を注意するのみであり,アクション間や欲求間の競合はコーパスからの学習を通じて解決されるため, 実装しやすくできた. 今後は欲求の種類を追加しスケジュールの聞き取りを行う.
## 謝辞
本研究は JSPS 科研費 JP19K12548 の助成を受けたものです.
## 参考文献
[1] 徳久雅人,木村周平: 旅行支援のための情報を提示する車載器の試作, 観光情報学会第 14 回研究発表会講演論文集, pp.5-8, 2016.
[2] Tokuhisa, M., Ishihara, Y., Kimura, S., Oku, K.: Recommending Paragraphs of Wikipedia Pages as a Travel Guide, Proc. of IEEE 9th International Workshop on Computational Intelligence and Applications, pp.57-62, 2016.
[3] 岡田直之: 語の概念の表現と蓄積, 電子情報通信学会, コロナ社, 1991.
[4] 徳久雅人, 木村周平: 小型計算機におけるサービ又指向発話文解析,自然言語処理,26 (3), pp.545-578, 2019.
[5] 德久雅人, 木村周平: 自動車旅行の走行軌跡と走行目的の収集支援 - - - 地点名について, 観光情報学会第 20 回研究発表会講演論文集, pp.9-12, 2019.
[6] 徳久雅人, 岡田直之: パターン理解的手法に基づく知能エージェントの情緒生起, 情報処理学会論文誌, 39 (8), pp.2440-2451, 1998.
## 付録
A1.「Xを知る欲求」に対応するアクション
$※ X \in\{$ parking, affairs $\}$
act_はシステムの行為, res_はユーザの行為
act_infer_ $X: X$ を推定(内向きの行為)
act_confirm_ $X: X$ を確認 (Yes/No 質問)
act_ask_ $X: X$ を質問 (具体值を尋敞る)
act_ask_another_ $X$ : 他の $X$ を質問
act_acknowledge_ $X$ : ユーザの発言を受理
act_close_ $X$ : $X$ の話題をやめる
res_yes_ $X$ : 確認内容 $X$ は正しい
res_no_ $X$ : 確認内容 $X$ は誤り
res_unknown_ $X$ : 確認内容 $X$ は不明
res_inform_ $X$ : $X$ の具体値を伝達
res_close_ $X$ : $X$ の話題をやめる
## A2. 対話文脈を構成する素性
var_temp_ $X=0$ or 1
var_real_ $X=0$ or 1
hst_ $A_{-} X=0$ or 1
desire $X=0$ or 1
emotion_E_T=0.0 1.0
$※ A \in\{$ infer, confirm, ask, ask_another, acknowledge, close $\}$
$※ E \in\{$ expectancy \}
$※ T \in\{$ response_affairs $\}$
## A3. アクション知識の例 1
acFrame(
\# name
"act_infer_parking",
\# desire
"desireKnowParking",
\# executor
"serviceTraceDB", "actInferParking",
\# direction
:inward,
\# precondition
[ "desire_know_parking=1",
"var_temp_parking $=0$ ",
"var_real_parking $=0$ ",
"hst_infer_parking=0" ],
\# effect
[ "hst_infer_parking=1",
"var_temp_parking=exist(infer_parking)"])
## A4. アクション知識の例 2
acFrame(
\# name
"act_confirm_parking",
\# desire
"desireKnowParking",
\# executor
"serviceTraceDB", "actConfirmParking",
\# direction
:outward,
\# precondition
[ "desire_know_parking=1",
"var_temp_parking=1",
"var_real_parking=0",
"hst_confirm_parking=0" ],
\# effect
[ "hst_confirm_parking=1" ])
## A5. アクション知識の例 3 (抜粋)
acFrame(
"res_yes_parking", - - -,
\# precondition (effect で改訂される場合, 不要)
\# effect
[ "var_temp_parking=1",
"var_real_parking=1"])
A6. コーパスの例
dialogue step actor utterance action
$11 \mathrm{~S}$ " " desire_know_parking=1
$2 \mathrm{~S}$ "" act_infer_parking
$3 \mathrm{~S}$ "ここは<loc>エスマート湖山店</loc>ですか"
act_confirm_parking
4 U "はいそうです" res_yes_parking
$5 \mathrm{~S}$ "" desire_know_affairs=1
$6 \mathrm{~S}$ " " act_infer_affairs
7 S "何をしましたか" act_ask_affairs
$21 \mathrm{~S}$ " " desire_know_parking=1
$2 \mathrm{~S}$ "" act_infer_parking
3 S "ここはどこですか" act_ask_parking
- - - 略 - - -
$141 \mathrm{~S}$ " " desire_know_affairs $=1$
$2 \mathrm{~S}$ " " act_infer_affairs
$3 \mathrm{~S}$ " " emotion_expectany_response_affairs $=1.0$
$4 \mathrm{~S}$ "" act_confirm_affairs
$151 \mathrm{~S}$ " " desire_know_affairs $=1$
2 S" " act_infer_affairs
$3 \mathrm{~S}$ " " emotion_expectany_response_affairs $=0.3$
$4 \mathrm{~S}$ " " act_ask_affairs
※ 発話文は参考表現(無記入可).
※ 対話文脈の部分を与えることが可能. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P8-6.pdf | # UserRNN の追加による話者ごとの発話情報を考慮したマルチ ターン対話生成
大西孝宗
岡山理科大学大学院総合情報研究科情報科学専攻
i20im02ot@ous.jp
椎名広光
岡山理科大学総合情報学部情報科学科
shiina@mis.ous.ac.jp
## 1 はじめに
ニューラルネットワークを用いた対話生成におい
て、Encoder-Decoder(Seq2Seq) モデル $[1,2,3]$ の応用が Vinyals ら [4]により提案されている. 対話は一般的に話者の交代が複数回行われるマルチターンとなっているが、Encoder-Decoder モデルはひとつの入力に対しひとつの出力が対応するため、マルチター ンの対話を扱う場合には複数の発話をひとつにまとめることで入力としている. このため、発話の始めのあたりの情報が失われやすく、しばしば会話の流れに沿わない応答を生成してしまうことが報告されている.
これに対し、Serban らによる Hierarchical Recurrent Encoder-Decoder (HRED) モデル [5] は EncoderDecoder モデルを複数個重ねて階層構造をつくることでマルチターンの対話に対応したモデルとなっている. 更に Serban らは HRED モデルを改良し、潜在変数を追加することで多様な応答を生成するモデルとして、Latent Variable Hierarchical Recurrent Encoder-Decoder (VHRED) モデル [6] を提案している。
一方で、これらのモデルは発話したユーザを考慮していないため、同一の対話のなかで一貫性がない応答を生成することが課題としてあげられる. Li ら [7] や Bak ら [8] は、応答の生成時にユーザの埋め込みべクトルを用いることでユーザごとの発話の一貫性を持たせる手法を提案している。しかし、ユーザの埋め込みベクトルを用意出来ない場合には既存のモデルと同様に一貫性のない応答を生成してしまう。
本研究ではユーザの埋め込みベクトルを用いるの
図 1 HRED モデル
ではなく、UserRNN を追加することで話者ごとの発話情報を保持し、一貫性のある応答生成を行っている.
## 2 関連研究
## 2.1 HRED モデル
HRED モデルはマルチターンの対話のために Encoder-Decoder モデルを拡張した対話生成モデルであり、発話 1 から発話 n-1 までを入力として発話 $\mathrm{n}$ を予測し生成する.
HRED モデルの構造は、Encoder-Decoder モデルを複数個重ねた階層構造となっており、階層構造中の各 Encoder-Decoder モデル間は ContextRNNによって結ばれている. ContextRNN は対話の流れを保持している。これによって過去の発話を考慮した応答の生成を可能としている.HRED モデルの概略図を図 1 に図示する。
図 2 VHRED モデル
## 2.2 VHRED モデル
VHRED モデルは HRED モデルを改良したモデルであり、HRED モデルでは “I don't know” のような無難な応答を生成してしまうことが多かったが、VHRED モデルでは潜在変数を加えることで ContextRNN に対して確率的なノイズを与え、多様な応答を生成することを可能にしている.特に、 HRED モデルに比べて長文の応答を生成しやすいことが報告されている. VHRED モデルの概略図を図 2 に図示する.
## 3 発話者ごとの対話情報を考慮する ための提案手法
本研究では既存のモデルである HRED モデルおよび VHRED モデルに対して、話者の発話情報を保持する UserRNN を追加することで、話者ごとの発話の一貫性を保った応答の生成を試みている。
## 3.1UserRNN を追加した提案モデル
HRED モデルおよび VHRED モデルに対して UserRNN を追加した提案モデルについて説明する。構成の異なる 3 種類のモデルを提案する。
(1) ContextRNN と UserRNN の出力の和をデコー ダの入カとするモデルエンコーダからの出力をUserRNNおよび ContextRNN それぞれに入力し、 その出力の和をデコーダへの入力としている. UserRNN は ContextRNN と同一の構造としている. (提案モデル 1 : HRED (Context RNN + User RNN) 図 3 および提案モデル 4 : VHRED (Context RNN + User
図 3 提案モデル 1 : HRED (Context RNN + User RNN) (HRED モデルの構成を ContextRNN と UserRNN の出力の和をデコーダの入力とするように変更)
RNN))
(2) UserRNN のみの構成に変更したモデル ContextRNN を除き、UserRNN からの出力のみをデコー ダへの入力としている。(提案モデル 2:HRED (User RNN only) 図 4 および提案モデル 5 : VHRED (User RNN only))
(3) UserRNN の出力を ContextRNN に入力するモデル提案モデル 3 の概略図を図 5 に図示する. エンコーダからの出力を UserRNN に入力し、さらにその出力を ContextRNNへの入力とする.デコーダへの入力は ContextRNN からの出力のみとしている. (提案モデル 3: HRED (User RNN $\rightarrow$ Context RNN) 図 5 および提案モデル 6 : VHRED (User RNN $\rightarrow$ Context RNN))
## 4 対話の生成実験と評価
各モデルについてマルチターンの対話応答生成を行う.データセットには Ubuntu Dialogue Corpus [9] および Cornell Movie-Dialogs Corpus [10] を用いた. Ubuntu Dialogue Corpus はインターネットリレー チャットの Ubuntu チャンネルから 1 対 1 の対話を抽出したデータセットとなっており、約 100 万件の対話データが含まれている. Cornell Movie Corpus は映画の対話を抽出したデータセットであり、約 22 万件の対話データとなっている.
図 4 提案モデル 2: HRED (User RNN only) (HRED モデルの構成を UserRNN のみへ変更)
## 4.1 評価手法
生成した応答文と実際の応答との関連性を評価するため、Liu らが提案した Embedding-based Metrics [11]を用いて自動評価を行う. Embedding-based Metrics は事前学習済みの単語ベクトルを用いて文の類似性を評価するものであり、Embedding Average,
Greedy Matching, Vector Extrema の 3 つの算出方法が提案されている。事前学習済みの単語ベクトルには、Google News Corpus で学習させた Word2Vec の単語ベクトルを用いた。
(1) Embedding Average モデルが生成した発話文中の単語ベクトルの平均と、実際の応答文中の単語ベクトルの平均をそれぞれの文のベクトルとして両者のコサイン類似度を算出しスコアとする。
(2) Greedy Matching 生成文と実際の応答文に含まれる単語べクトルを比較した際に、最もコサイン類似度が高くなる単語の組についてそれぞれコサイン類似度を算出し、その平均をスコアとする。
Greedy Matching は次の式で表される.
$
\begin{gathered}
G(r, \hat{r})=\frac{\sum_{w \in r} \max _{\hat{w} \in \hat{r}} \text { cos_sim }\left(e_{w}, e_{\hat{w}}\right)}{|r|} \\
G M(r, \hat{r})=\frac{G(r, \hat{r})+G(\hat{r}, r)}{2}
\end{gathered}
$
なお、 $r$ を実際の応答、 $\hat{r}$ を生成した応答とする。
(3) Vector Extrema モデルが生成した発話文および実際の応答文について、それぞれの文に含まれる単語ベクトルの各次元ごとの最大値を用いて文のべクトルをつくり、生成文と実際の応答文のコサイン類似度を算出しスコアとする。
Context
hello, guys! i want to know, if i have a debian vps, how can i install ubuntu to replace debian? $\rightarrow$ hmm.. wipe and reinstall is the safest way to do it. but it's not the only way. but it is the only way to be absolutely sure. $\rightarrow$ i've only got ssh access to it : $\rightarrow$ why're you downgrading any how?
hello, guys! i want to know, if i have a debian vps, how can $\mathrm{i}$ install ubuntu to replace debian? $\rightarrow \mathrm{hmm}$.. wipe and reinstall is the safest way to do it. but it's not the only way. but it is the only way to be absolutely sure. $\rightarrow$ i've only got ssh access to it : $\rightarrow$ why're you downgrading any how?
図 5 提案モデル 3:HRED (User RNN $\rightarrow$ Context RNN) (HRED モデルの構成を UserRNN の出力を ContextRNN に入力するよう変更)
Vector Extrema は次の式で表される.
$
e_{r d}= \begin{cases}\max _{w \in r} e_{w d} & \text { if } e_{w d}>\left|\min _{w^{\prime} \in r} e_{w^{\prime} d}\right| \\ \min _{w \in r} e_{w d} & \text { otherwise }\end{cases}
$
## 4.2 実験結果
## 4.2.1 Embedding-based Metrics による評価
モデルに入力するコンテキストのターン数が 1 ターンの場合と 5 ターンの場合について評価を行った. 各モデルの Embedding-based Metrics によるスコアを表 1 に示す.
1 ターンの場合には既存のモデルに比べ、おおむね提案モデルのスコアが上回っている. 特に Ubuntu コーパスでは、VHRED モデルの構成をUserRNN の
## Response
HRED モデル: $i$ ' $m$ trying to upgrade from 8.04 to 8.10 提案モデル 1:i want to upgrade to breezy
提案モデル 2:i m trying to get my <unk> to work with the latest version of the kernel and the <unk> <unk> <unk>提案モデル 3:because i want to install a new version of ubuntu, and i want to install a newer version of ubuntu, and $i$ want to install ubuntu on
VHRED モデル because the ubuntu server is only updated, which are you currently in the boot order?
提案モデル 4:what do you mean
提案モデル 5:because i don't want to upgrade to edgy , because i can't get it to work
提案モデル 6:because i want to upgrade to the latest version of apt get, and it 's just that they have broken dependencies, so if it fails
みに変更を加えた提案モデル 5 のスコアが良い.
一方で、5 ターンの場合ではスコアの改善はあま
り見られず、提案モデルのスコアが既存のモデル
のスコアを僅かに下回る場合が多い. 特に Ubuntu
コーパスにおいて VHRED モデルの構成を UserRNN
のみに変更を加えた提案モデル 5 のスコアは他のモデルに比べて大きく下回っている.このことは、 ContextRNN がないことによって対話全体の流れを保持することが出来ず、結果としてコンテキストのターン数が増えた場合の応答生成が困難になっている可能性を示している。
## 4.2.2 応答文の生成例について
Ubuntuコーパスを用いた各モデルの応答文の生成例を表 2 に示す. HRED モデルおよび HRED モデルを変更した提案モデル $1,2,3$ はコンテキストにまったく沿わない応答や文としておかしい応答が見受けられる. VHRED モデルおよび VHRED モデルを変更した提案モデル 4,5,6 については、比較的にコンテキストにふさわしい応答を生成している。一方で、UserRNN の追加による差は少ない.
## 5 まとめ
UserRNN の追加によって、生成した応答と実際の応答との関連性の向上に一定の効果は得られた.しかしながら、一貫性のある応答の生成という点は、 Embedding-based Metrics では評価が難しく、コンテキストと生成した応答の関連性についての評価や、人手による評価によって、UserRNN の追加による応答生成への影響を詳しく調べる必要がある.
## 参考文献
[1]Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 3104-3112, 2014.
[2]Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[3]Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, Lisbon, Portugal, September 2015. Association for Computational Linguistics.
[4]Oriol Vinyals and Quoc V. Le. A neural conversational model. In ICML Deep Learning Workshop, 2015.
[5]Iulian Vlad Serban, Alessandro Sordoni, Yoshua Bengio, Aaron C. Courville, and Joelle Pineau. Building end-to-end dialogue systems using generative hierarchical neural network models. In Dale Schuurmans and Michael P. Wellman, editors, Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence, February 12-17, 2016, Phoenix, Arizona, USA, pp. 3776-3784. AAAI Press, 2016.
[6]Iulian Vlad Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron C. Courville, and Yoshua Bengio. A hierarchical latent variable encoder-decoder model for generating dialogues. In Satinder P. Singh and Shaul Markovitch, editors, Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA, pp. 3295-3301. AAAI Press, 2017.
[7]Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A personabased neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics.
[8]JinYeong Bak and Alice Oh. Variational hierarchical user-based conversation model. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1941-1950, Hong Kong, China, November 2019. Association for Computational Linguistics.
[9]Ryan Lowe, Nissan Pow, Iulian Serban, and Joelle Pineau. The Ubuntu dialogue corpus: A large dataset for research in unstructured multi-turn dialogue systems. In Proceedings of the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 285-294, Prague, Czech Republic, September 2015. Association for Computational Linguistics.
[10]Cristian Danescu-Niculescu-Mizil and Lillian Lee. Chameleons in imagined conversations: A new approach to understanding coordination of linguistic style in dialogs. In Proceedings of the 2nd Workshop on Cognitive Modeling and Computational Linguistics, pp. 76-87, Portland, Oregon, USA, June 2011. Association for Computational Linguistics.
[11]Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P8-7.pdf | # 傾聴の応答で繰り返される語句の検出性能の向上
川本稔己長谷川駿上垣外英剛船越孝太郎奥村 学
東京工業大学
kawamoto@lr.pi.titech.ac.jp
## 1 はじめに
対話において相手の話を聞いているという意思表示を行うことは円滑なコミュニケーションを行う上で重要である。その手段として, ジェスチャや発話をすることが挙げられる. ジェスチャの具体例は領くことや首をかしげることであり,発話だと相槌を打つことが代表的である. 相棺以外にも相手の発話に賛同を示すために話し手が使用した語句を反復し発話をする時がある.以下に例を示す。
話し手: 僕はやっぱり野球は無理だなと思いましてね.
聞き手: 野球は無理でしたか.
この例では,話し手の発話に含まれる「野球は無理」が応答で反復され,賛同を示している. このような応答を繰り返し応答という。人が傾聴するときと同様に,対話システムに傾聴をさせる際にも相槌だけではなく繰り返し応答も行うことで会話をより円滑に進める事が出来る.その生成を行うにはどの語句を反復するかを決めることが必要である. よって,本稿では話し手の発話の中から繰り返し応答に用いられる文節を検出する研究に取り組む.
伊藤ら [1] は個々の文節に関する素性を主に用いてSVM で検出する手法を示しているが,発話における文節間の関係を十分に考慮していない。この問題を解決するために,本稿では文節間の関係を捉えることが可能な BERT [2]を使用する。 さらに,発話をまたぐ文脈を考慮する目的で直前の話し手の発話も入力として用いる。
一般に繰り返し応答に対するデータを大量に準備することは難しい,その理由としては,賛同を示す発話の一種類である繰り返し応答が対話時に多用されるものではないという点が挙げられる. そのため,本稿では傾聴対話コーパス [3] の話し手の発話を用いて,その発話に対して取りうる繰り返し応答のバリエーションを人手でクラウドソーシング表 1 先行研究で使用された素性一覧文節の主辞の品詞文節の主辞の品詞細分類
文節の主辞の活用形
文節の機能語の品詞
文節の機能語の品詞細分類
文節の機能語の活用形
文節の形態素数が以下の 4 分類のいずれであるか (1, 2, 3-6, 7 以上)
文節が属する節境界単位の種類
節境界単位内で先頭から何番目の文節か
文節が固有名詞を含むか否か
文節が数詞を含むか否か
文節が固有表現を構成する形態素を含むか否か IREX の分類について,文節がその固有表現を構成する形態素を含むか否か文節内に内容語が存在し,文節の重要度 $I$ が全形態素の中央値 13.56 より大きいか否か直前の文節の最後の形態素がフィラーか否か
サービスを用いて作成することによりデータを用意する。
作成したデータを対象とした評価実験の結果,提案手法はベースラインである SVM を用いた手法より 24 ポイント高い $\mathrm{F}$ 值を達成した. それにより文脈を考慮した提案手法の有効性を確認できた。
## 2 先行研究
伊藤らは,文節ごとに与えられる素性を元に各文節が繰り返し語句を含む文節であるかを,分類器を用いて分類している。その際に用いられている素性を表 1 に示す.
先行研究から, 特に固有表現・フィラーの後の語句,重要度が高い語句は繰り返しの対象になりやすいことが分かっている. 固有表現の抽出および IREX タグの付与には CaboCha[4] が用いられている. フィラーの直後の語句は話し手が言いよどみした後に発言したものであり,比較的重要な意味を持つと考えられる。語句の重要度は以下の指標で計られている。
$
I\left(w_{i}\right)=\log _{2} \frac{\sum_{j} F\left(w_{j}\right)}{F\left(w_{i}\right)+1}
$
ここで, $w_{i}$ は形態素, $F\left(w_{i}\right)$ は『日本語話し言葉コーパス』短単位語彙表 ver $\left.1.0^{1}\right)$ における $w_{i}$ の出現頻度である. 語の異なり総数は 42,545 , 語の総頻度 $\sum_{j} F\left(w_{j}\right)$ は 7,479, 773 である. 素性 14 の文節の重要度 $I$ は, 文節に属する内容語の重要度 $I$ のうち最大のものとした.
## 3 提案手法
本節では文節間の関係を捉え,発話をまたぐ文脈を考慮し,繰り返し文節を検出する手法を提案する. 図 1 に提案モデルの概要を示す.
提案手法では, 事前学習された,日本語を対象とした Bidirectional Encoder Representations from Transformers (BERT)2)をエンコーダとして使用する. BERT を使うことで文節間の関係を捉えることが可能となる.入力には,発話をまたぐ文脈を考慮するために, 話し手の対象発話 $W=\left(W_{1,1}, \ldots\right)$ と対象発話の直前の話し手の発話 $W^{*}=\left(W_{1,1}^{*}, \ldots\right)$ を用いる. 以後話し手の対象発話を SP, 対象発話の直前の, 同じ話し手の発話を PreSP と呼ぶ (例は 4.1 節を参照).入力順序は時系列に沿い, PreSP の後 SP とする. 発話の前後には発話の開始記号として<CLS>, 発話の終端記号としてくSEP>を挿入する。なお,BERT は特徴量抽出のみに利用し, fine-tuning は行っていない.
次に,予め分割しておいた文節ごとに,文節が表現しているべクトルを得る。そのために BERT でエンコードした検出対象発話の単語単位のベクトルを,文節ごとに self-attentive span extractor[5]を利用して文節単位のベクトルに変換した. そうして得たベクトル $h_{i}^{s}$ に表 1 に示す素性を結合し, MLP (multi-layer perceptron)の入力とした. MLP は最終層に sigmoid 関数を使用しているので,出力は $[0,1]$ の連続値になる。その値に対する閾値を使用して二值に分類する. 閾値は開発データを用いて最適化した.
## 4 データ
本節では人手で繰り返し応答を作成し,繰り返し対象語句を含む文節のタグ付けを行う手順について説明する。
繰り返し応答は傾聴時に多く出現することから,話し手の発話についてはデータとして高齢者と介護
士による傾聴対話 [3] を用いた。この対話は,話し手となる高齢者と聞き手となる介護士が情報案内および傾聴を行うコーパスである。本コーパスの発話の総数は 9716 である.
## 4.1 繰り返し応答データの作成
繰り返し応答のデータをある程度の量用意するためにクラウドソーシングを利用して繰り返し応答を人手で作成した. ${ }^{3}$ クラウドソーシングには Lancers")を使用した. 具体的な手段としては,デー タの話し手の発話で, 内容語 (名詞, 動詞, 形容詞,副詞のいずれか)を含む文に対して以下のような設問を提示した. 内容語を特定するために必要な形態素解析器には $\mathrm{MeCab}^{5}$ を用いた. 作成してもらう際には,50 個の設問を 1 つのパートとし,合計 36 個のパートをそれぞれ 3 名に依頼した。したがって作成者はのべ 108 名である. 以下が作成作業時に提示された設問と発話の例である. 以後,聞き手の発話をLIと呼ぶ.
Q: 下線が引いてある $\mathrm{SP}$ の語句を使い応答文を作成してください,それ以前の対話は文脈理解に使用してください.
PreSP: はい私の名前が.
LI: 何が出るんです?釣った大きさ?
SP: 大きさとかね,そういう何匹釣ったとか, そんなん.
以上の設問に対する 3 名からの回答が以下である.
A-1: 何匹釣ったとかということが出ているのですね.
A-2: 釣った魚の大きさとか数の情報がでるのですね.
A-3: 大きさと何匹釣ったかとかですか.
これらの例では下線の話し手の文で使われている内容語「大き」・「何」・「匹」・「釣っ」を一つ以上含む繰り返し応答が作成できていることがわかる.
そして,提示した話し手の文と,人手で作成された,上のような 3 文のうち 1 文をランダムに選択し,それらを文対とする。以降,本稿においてLIとは作成した応答とする。
図 1 提案手法で使用するニューラルネットワークの構造. BERTには時系列順に話し手の対象発話 (SP) とその直前の話し手の発話 (PreSP)を入力する.MLPの入力には,文節ごとに SpanExtractor を使用したべクトルに表 1 の素性を追加している.
その結果 1760 の文対が得られた。
## 4.2 繰り返し対象語句を含む文節のタグ 付け
4.1 節で得られた文対に対して, 繰り返し対象となっている語句を含む SP の文節を以下の手続きで同定しアノテーションした. 文節の分割には CaboCha を用いた.
- LI 中と一致している内容語を含む SP の文節を繰り返し対象となる文節とする。
$\cdot$同じ内容語に対して複数の文節がある場合は,他の繰り返し対象となる文節に最も近いものを選択する。他の繰り返し対象文節が存在しない場合は,最初に出現したものを選択する。
以下にタグ付けの例を示す. 下線の箇所が繰り返し対象となる語句を含む文節である。なお,スラッシュは文節間の区切りを表す。
SP: それまではねね,/ちょっと/今儿ばらく终眠中です.佟眠さしても/うてます.
LI: 冬眠明けが/楽しみです.
## 5 実験
先行研究では,SPを節単位に分割し,繰り返し対象文節を 1 つも持っていない節は実験対象から除外
している.しかし,対話システムやチャットボットで実際に繰り返し応答を生成する際には,節よりも文が理解の単位として重要であり,また,繰り返し文節が存在しない文も対象として実験を行うことが望ましい. そこで本稿では, 先行研究の再現という目的で,参考として先行研究と同じ節単位での実験も行うが,文単位で実験を行う。
## 5.1 節単位での実験
先行研究の実験設定に沿うように,SPを節境界で分割し, 繰り返し対象文節を 1 つも持っていない節は実験の対象から除外した.このため実験対象の節には必ず 1 つ以上の繰り返し対象文節が含まれる. 節境界の検出には節境界解析ツール CBAP[6] を用いた.
上述したように,節には必ず少なくとも 1 つ繰り返し文節が含まれるという設定であるので, 繰り返し対象となる文節を検出する際,繰り返し対象文節と判定される文節が $1 \supset もない$ 節については, 二值分類する際のスコアが最大の文節を繰り返し対象文節とする。
## 5.2 文単位での実験
本設定では文を一つの単位とみなす。また,傾聴において繰り返し応答をしない場合も存在する方が自然である. よって,一つも繰り返し対象文節と判定されるものがない場合も,節単位での実験のように,後処理は行わないこととする。これにより,先行研究より自然な実験設定になる.
## 5.3 実験概要
実験には 4 節で作成したデータを用いた. データのサイズを表 2 に示す. 実験では訓練データ: 開発データ: テストデータ $=3: 1: 1$ として 5 分割交差検証をモデルの初期値を変更して 3 回ずつ実験し,計 15 回の平均を実験結果とした.
繰り返し対象文節を正解とし,正解に対する再現率・適合率・F 値により評価した. 再現率・適合率・ F 値はそれぞれ,
$
\begin{aligned}
& \text { 再現率 }=\frac{\text { 正しく検出できた繰り返し対象文節数 }}{\text { 正解の絽り返し対象文節数 }} \\
& \text { 適合率 }=\frac{\text { 焉しく検出できた繰り返し対象文節数 }}{\text { 数返対象として検出された文糗数 }} \\
& F \text { 值 }=\frac{2 * \text { 再現率 } * \text { 適合率 }}{\text { 再現率 }+ \text { 適合率 }}
\end{aligned}
$
のように計算される.
ベースラインには Support Vector Machine (SVM) による先行研究を用いた. 表 1 の素性に基づいた先行研究の再現を可能な限り行った. SVM は scikit-learn ライブラリ6)の SVMを,初期設定されたハイパー パラメータに基づいて使用した. 節単位での実験は, 先行研究からの本手法による改善を確認するために行うので, ベースラインであるSVM と提案手法の 2 種類のモデルで比較を行う.
文単位の実験においてはその 2 種類に加えて, ablation study として提案手法の入力にPreSP を組み込まない w/o PreSP,提案手法の MLP の入力に表 1 の素性を追加しない w/o 素性, そのどちらも組み込まない w/o PreSP and 素性の 3 種類の設定下でも実験を行った.
6) https://scikit-learn.org/stable/表 3 実験結果(節単位)(\%)
表 4 実験結果(文単位)(\%)
## 5.4 実験結果
節単位での実験結果を表 3,文単位での実験結果を表 4 にそれぞれ示す。
節単位では,ベースラインのSVM の F 値が $57.59 \%$ であったのに対し提案手法の $\mathrm{F}$ 值が $68.39 \%$ となり, 約 11 ポイントの向上を確認した. これは先行研究と同様の設定において提案手法が有効であることを示している.
文単位では,ベースラインの SVM の F 值が $32.01 \%$ であったのに対し提案手法の $\mathrm{F}$ 値が $56.21 \%$ となり,約 24 ポイントと大幅に向上したことが確認された. その上で, 提案手法と提案手法 w/o PreSP を比較すると, PreSPを入力に加えることで発話をまたぐ文脈を考慮することが出来ていることがわかる. また,提案手法と提案手法 $\mathrm{w} / \mathrm{o}$ 素性を比較すると,素性を入れた手法がより高い $\mathrm{F}$ 值を得ていることから, 先行研究の素性はSVM だけでなく提案手法においても効果的であることが分かる.
## 6 おわりに
本稿では,文節間と発話間の文脈を考慮することで傾聴の応答で繰り返される語句の検出性能を向上させる手法を提案した。提案手法は従来の手法とは異なり,BERTを用いることで文節間の関係を考慮している。その上で直前の話し手の文(PreSP)を加えることで発話をまたぐ文脈を考慮することが可能であり,また,MLPの入力に先行研究の素性を結合することによりさらなるスコアの向上も実現している. 実験の結果, $\mathrm{F}$ 値の大幅な向上が確認された.今後は本手法で検出した繰り返しとなる語句を用いて,傾聴における応答の生成を目指したい.
## 参考文献
[1]伊藤, 村田, 大野, 松原. 傾聴を示す応答で繰り返される語りの語句の検出. 言語処理学会, 2019.
[2]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
[3]Yoshino, Tanaka, Sugiyama, Kondo, and Nakamura. Japanese dialogue corpus of information navigation and attentive listening annotated with extended iso-24617-2 dialogue act tags. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018.
[4]工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, Vol. 43, No. 6, pp. 1834-1842, 2002.
[5]Kenton Lee, Luheng He, Mike Lewis, and Luke Zettlemoyer. End-to-end neural coreference resolution. arXiv preprint arXiv:1707.07045, 2017.
[6]丸岡, 柏岡, 熊野, 田中. 節境界自動検出ルールの作成と評価. 言語処理学会, 2004. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P8-8.pdf | # ニューラル対話モデルの自動評価に向けた 対照応答対評価セットの試作
岡野功士朗 1 川村真也 ${ }^{2}$ 鈴木優 $^{1}$ 加藤恒夫 ${ }^{2}$ 田村晃裕 ${ }^{2}$ 呉剣明 ${ }^{3}$
1 同志社大学大学院理工学研究科 2 同志社大学理工学部 ${ }^{3}$ KDDI 総合研究所
ctwf0136@mail4.doshisha.ac.jp
## 1 はじめに
非タスク指向型対話における応答生成は正解が一つしかないわけではないが,文脈を適切に踏まえたものであることが望ましい. 注意機構付き Encoder-Decoder RNN[1] や Transformer[2] によって比較的流暢な応答が生成されている. しかしながら,非タスク指向型対話における応答品質の自動評価手法は確立されていない. 応答の仕方は多様であるため,コーパスから抽出した応答文を参照する BLEU のような指標は主観評価値との相関が低いことが報告されている [3]. この課題に対して,対話相手からの問い掛けとの関係も評価する指標 [4], 主観評価と統計的な評価を統合した指標 [5], さらには, 対話応答の品質は対話のやりとりからしか評価できないとしてインタラクティブに評価する手法 [6] などが提案されている.
一方,文レベルの翻訳品質が向上した機械翻訳では,一連の文章を翻訳する場合に前後の翻訳文間の意味的な整合性が新たな課題となっている. この場合も,文脈に関わる意味的な整合性を BLEU で測るのは難しく, Sennrich らは,機械翻訳システムが生成する翻訳文の言語的な傾向を分析するために自身が提案した対照翻訳対 [7]を発展させ,英仏翻訳において前方照応代名詞の翻訳と語彙選択の一貫性を評価する評価セットを提案している [8]. さらに,文脈を考慮した英露翻訳において,頻出する典型的な誤りを分析し,その誤りに関する翻訳モデルの性能を評価するための対照翻訳対を設計している [9].英日翻訳では,永田らが共参照と一貫性を評価する対照翻訳対を設計している [10]. これらの対照翻訳対は, 対訳コーパスから抽出した正解翻訳文に必要最小限の誤りを加えて誤り文とし,正解翻訳文と誤
り文に対して翻訳モデルが算出する生成確率の比較において正解翻訳文の方が高い割合を測ることでモデル性能を定量化する.
本研究では,非タスク指向型対話システムにおける応答品質の自動評価に向けて,文脈を考慮した機械翻訳の評価のための対照翻訳対 [9] に倣い,対照応答対を提案する。大規模な雑談対話コーパスから学習したニューラル対話モデルが生成する応答文の誤り傾向を分析し,頻度の高い 3 種類の誤りを加えた対照応答対を試作した. 作成した対照応答対評価セットを用いて性能差がある 3 種類のニューラル対話モデルを評価し,主観評価で測った性能差が対照応答対評価セットによる自動評価値と整合するか検証した。
## 2 対照応答対の作成手順
文脈を考慮した機械翻訳を評価するための対照翻訳対の設計手順に倣い,まずニューラル対話モデルが生成する応答文の誤り分析を行い,その結果を踏まえて頻度の高い誤りを含む対照応答対を作成し,評価する。具体的には以下の手順で進める。
1. 誤り分析: ニューラル対話モデルが生成した多数の応答文に対して,自然であるか否かを人手で 2 値分類する. 自然でないと判定された応答文を誤りの種別に分類し,各誤り種別の頻度をカウントする.
2. 対照応答対作成:対話コーパスに含まれる正しい文に,頻度の高い誤りを加えて誤り文とし,正しい文と組み合わせて対照応答対(ペア)とする.このときの誤り文は,正しい文に含まれる形態素の最小限の置換によって作成する.
3. モデル評価:評価対象のニューラル対話モデルで,対照応答対の正しい文と誤り文の生成確率
表 1 定義した誤りラベルとその概要
図 1 Double Attention モデル
図 2 各評価者の誤りラベル使用割合
を算出し,正しい文の生成確率の方が誤り文の生成確率よりも高いペアの割合を,モデルの正解率とする.
以降,手順 1 の誤り分析を第 3 節に,手順 2 の対照応答対作成を第 4 節に,手順 3 のモデル評価を第 5 節に記述する。
## 3 ニューラル対話モデルによる 応答文の誤り分析
非タスク指向型対話は女性同士の雑談を対象にした. 大規模な雑談対話コーパスとして,クラウドソーシングを用いて作成した架空の 20 代女性 2 名「吉田さん」と「佐々木さん」の間の仮想雑談コーパスを用いた。二人のペルソナを細かく規定し,クラウドワーカーの間で共有することで,一貫性のある雑談を約 168 万発話分集めている. 吉田さんと佐々木さんの雑談は交互に最大 10 ターン続くので,比較的長い文脈に対する応答の整合性を評価することも可能である.今回は「吉田さん」の対話モデル用に対照応答対評価セットの試作と評価を行うため,同コーパスより学習データ約 110 万文,検証データ約 6.4 万文,評価データ約 6.4 万文を抽出した.
「吉田さん」の対話モデルとして,GRU ベースの注意機構付き Encoder-Decoder モデルとその変形版の 2 種類を用いた。前者のモデル構造を図 1 に示す. 1 つ前の吉田さん自身の発話と直前の佐々木さんの発話を別の Encoderに入力し,Decoder は $2 \supset$ の Encoder の隠れ層に対してそれぞれ注意機構を用いるので Double Attention モデルと呼ぶ。変形版は図に示していないが,2つの注意機構のいずれにより強い注意を向けるかを考慮する機構を加えたものである。モデル学習はクロスエントロピ誤差を損失関数とする教師あり学習で行った。
検証データから無作為抽出した 1500 種類の対話文脈に対して,上記の 2 種類のニューラル対話モデルで応答文を生成した。応答生成は相互情報量最大化を基準にして行っている [11]. 計 3000 種類の応答文に対して,著者ら 3 名が誤り分析を行った. 最初に 3 名それぞれが,応答が文脈に照らして自然であるか否かを基準に 2 值分類した。次に,自然でないと考えた応答文を対象に各評価者がその原因を分析し,その結果を評価者間で擦り合わせることで最終的に表 1 に示す 10 種類の誤りラベルを定義した.
評価者 3 名が,自然でないと考えた応答文は全体
した誤りラベルの割合を図 2 に示す. 頻度の高いものから,文脈上不適切な内容語を含む誤り (ICW, $28.9 \%$ ), 助詞の誤り (FNC, 9.8\%), 文末表現の誤り (ESE, $8.9 \%$ )であった. そこで,頻度上位 3 種類の誤りに関わるモデル性能評価のための対照応答対を作成することにした。なお,誤り分析の詳細については文献 [12]を参照されたい。
表 2 内容語を置換した対照応答対の例
## 4 対照応答対評価セットの試作
## 4.1 内容語を置換した対照応答対
文脈上不適切な内容語を含む誤り (ICW) に対応する対照応答対は,正しい文に含まれる文脈上重要な名詞を他の名詞に置換して誤り文とした. 置換後の語として単に言語確率の低い語を選択してしまうことを避けるため, 同じコーパスから bi-gram 言語モデルを学習し, 置換後の語を 1)bi-gram 言語確率が置換前の名詞と同等になる名詞 (Equally-likely, EL), 2)bi-gram 言語確率が最大の名詞 (Most-likely, ML), の 2 種類の基準で選択した. 具体的には,正しい文 $W=\left.\{w_{1}, \ldots, w_{n}\right.\}$ 中の単語 $w_{i}(1 \leq i \leq n)$ を置換する場合, EL の置換後の語は式 (1), ML の置換後の語は式(2)によって選択する。
$\hat{w}_{i}=\arg \min \left[\left.\{\log \frac{P\left(v \mid w_{i-1}\right)}{P\left(w_{i} \mid w_{i-1}\right)}\right.\}^{2}+\left.\{\log \frac{P\left(w_{i+1} \mid v\right)}{P\left(w_{i+1} \mid w_{i}\right)}\right.\}^{2}\right]$
$
\hat{w}_{i}=\arg \max \left.\{\log P\left(v \mid w_{i-1}\right)+\log P\left(w_{i+1} \mid v\right)\right.\}
$
ただし,置換後の語は,コーパス中に 2 回以上出現する名詞を候補として, Encoder に入力される語は除外して選択する. 表 2 に内容語を置換した対照応答対 (ML) の例を示す.
## 4.2 文末表現を置換した対照応答対
図 2 で $8.9 \%$ 占めた文末表現の誤り (ESE) に対応する対照応答対を作成するため,誤りを細かく分類した結果を表 3 に示す.「平叙文と疑問文の反転」 とは,コーパス中の正しい文が平叙文であるのに対表 4 文末表現を置換した対照応答対の例
吉田私はカレーは甘口なんです
佐々木カレーは辛いのは苦手ですか?
吉田(正しい文) そうなんですよね〜
吉田(誤り文) そうなんですか?
表 5 助詞を置換した対照応答対の例
してモデル応答が疑問文の場合,またはその逆の誤りを指す。「肯定文と否定文の反転」も同様である.「省略された主語の変化」とは,例えば対話相手の彼氏がいない発言に対して“彼氏募集中ですょ”という応答を返す誤りを指す。彼氏を募集するのは対話相手であるため,“彼氏募集中ですね”という応答が正しい。このように文末表現の違いにより,省略された主語が変化する場合にこの誤りラベルを用いる。「共感表現の欠如」とは,「ですよね」のような共感を含む応答が期待される場合に「ですよ」のような共感が含まれない表現が現れる場合を指す.「願望表現の欠如」も同様である。「時制の誤り」は時制,「動詞の誤り」は生成された動詞が文脈的に誤っている場合を指す。
頻度上位の 2 種類「平叙文と疑問文の反転」と 「肯定文と否定文の反転」それぞれの 2 方向の誤り, すなわち「平叙 $\rightarrow$ 疑問 $」$, 「疑問 $\rightarrow$ 平叙 $」$, 「肯定 $\rightarrow$否定」,「否定 $\rightarrow$ 肯定」の計 4 種類の誤りを人手で付与した. 表 4 に文末表現を置換した対照応答対の一例を示す。
## 4.3 助詞を置換した対照応答対
助詞を置換した対照応答対も,文末表現を置換した対照応答対と同様に人手で作成した. 内容語の置換と同様に bi-gram 言語モデルを用いた自動作成も試みたが,置換後の語として文脈・文法的に適切な助詞しか候補として挙がらなかったために人手で作成した. 作成時の注意点として, 置換後も同じ深層格(動作主格・対象格など)になる助詞を選択しないようにルールを設けた。例えば,「私は学生です」 という正しい文の主語「私」に続く助詞「は」を,「が」に置換した「私が学生です」は誤り文にならない,そこで,明らかに誤りとなる助詞に置換するようにした. 表 5 に助詞を置換した対照応答対の一例を示す。
表 63 種類のモデルが生成した応答文の適切性に関する主観評価値の割合
## 5 対照応答対評価セットの評価実験
## 5.1 比較対象のニューラル対話モデルと主観評価による応答文の品質
内容語を置換した対照応答対を EL, ML で 350 ぺアずつ,文末表現を置換した対照応答対を 231 ペア (内訳:平叙 $\rightarrow$ 疑問 89 ,疑問 $\rightarrow$ 平叙 51 ,肯定 $\rightarrow$ 否定 66,否定 $\rightarrow$ 肯定 25),助詞を置換した対照応答対を 100 ペアの計 1031 ペアを作成した.
この対照応答対評価セットが,対話モデルの応答性能を正しく反映できるか評価するために, 3 種類のニューラル対話モデルを用意した。
- Double Attention: 第 3 節の誤り分析に用いた 2 つの Encoderとそれぞれに対する注意機構をもつモデル.
- Single Attention: 佐々木さんの直前の発話用の Encoder 1つと注意機構をもつモデル. 吉田さんの一つ前の発話は考慮できない.
- No Attention: 佐々木さんの直前の発話用の Encoderを持つが,注意機構は持たないモデル。
Single Attention モデル, No Attention モデルは, Double Attention モデルをベースに性能を劣化させたモデルなので,生成される応答文の品質は順に低くなると予想されるが,それを確認するために主観評価を実施した.
主観評価には,評価データから無作為抽出した 1200 セットについて,各モデルが生成した応答文を用いた.まず応答の適切性について,1:応答が不適切,2:どちらともいえない,3:応答が適切の 3 段階で評価してもらった. 次に,1:の不適切な応答について,1)文脈上不適切な内容語を含む誤り (ICW), 2)文末表現の誤り (ESE), 3) 助詞の誤り (FNC), に該当するかチェックしてもらった. 各モデル 1200 個の応答文について, 1 応答文あたり 5 名の評価者に評価してもらったため,各モデル 6000 の主観評価値を得た。応答文の適切性に関する 3 段階評価の割合を表 6 に示す. No Attention, Single Attention, Double Attention の順に,適切な応答は増加し,不適切な応答は減少した.ただし,適切な応答の差分は表 7 不適切と判定された応答文に対して評価者が該当す
表 8 対照応答対評価セットならびにサブセットに対する 3 種類のモデルの正解率
$2.5 \%$ に収まった. 評価者が不適切と判定した応答文に対して該当するとされた 3 種類の誤りラベルの割合を表 7 に示す. No Attention, Single Attention, Double Attention の順に,文脈上不適切な内容語を含む誤り (ICW) は減少したが,助詞の誤り (FNC) は逆に増加した。文末表現の誤り (ESE) は 3 種類のモデルで僅かな差であった。
## 5.2 対照応答対による評価結果比較
対照応答対評価セット全体と各サブセットに対する正解率を表 8 に示す. 評価セット全体 (ALL) に対する正解率は,No Attention, Single Attention, Double Attention の順に上昇したが,サブセットに対する正解率は表 7 に示した主観評価による誤りラベルの割合と整合するものと整合しないものがあった. 内容語を置換した対照応答対について,ELでは正解率が高すぎて,モデルの性能を測るよい指標になっていないと考えられる。これに対して,MLでは正解率が $80 \%$ 前後となり,モデルの性能を測るのに適当な值を示している. 文末表現を置換した対照応答対については,主観評価ではモデル間の差が小さかったが,正解率は Double Attention モデルが高かった.助詞を置換した対照応答対については,主観評価では Double Attention モデルの誤りが僅かに多かったが,正解率は Double Attention モデルが高かった.
## 6 おわりに
本稿では,ニューラル対話モデルの自動評価に向けた対照応答対評価セットを試作した. ニューラル対話モデルの性能を粗く評価できる感触は得られたが,評価セットのサイズを大きくするとともに,より多くのモデルを用いて検証を進める必要があると考えている。 さらに,非タスク指向型対話モデルといってもドメインは様々に異なるため,対照応答対の自動生成を検討する予定である.
## 参考文献
[1]A. Sordoni, M. Galley, M. Auli, C. Brockett, Y. Ji, M. Mitchell, J. Nie, J. Gao and B. Dolan, "A Neural Network Approach to Context-Sensitive Generation of Conversational Responses", in Proc. NAACL-HLT 2015, pp. 196-205, 2015.
[2]A. Vaswani, N. Shazeer, N. Parmer, J. Uszkoreit, L. Jones, A. Gomez, L. Kaiser and I. Polosukhin, "Attention Is All You Need”, in NIPS 2017, pp. 5998-6008, 2017.
[3]C. Liu, R. Lowe, I. Serban, M. Noseworthy, L. Charlin and J. Pineau, "How NOT to Evaluate Your Dialogue System: An Empirical Study of Unsupervised Evaluation Metrics for Dialogue Response Generation", in Proc. EMNLP 2016, pp. 2122-2132, 2016.
[4]C. Tao, L. Mou, D. Zhao and R. Yan, "RUBER: An Unsupervised Method for Automatic Evaluation of Open-Domain Dialog Systems" arXiv:1701.03079, 2017.
[5]T. Hashimoto, H. Zhang and P. Liang, "Unifying Human and Statistical Evaluation for Natural Language Generation”, in Proc. NAACL 2019, pp. 1689-1701, 2019.
[6]A.Ghandeharioun, J. Shen, N. Jaques, C. Ferguson, N. Jones, A. Lapedriza and R. Picard, "Approximating Interactive Human Evaluation with Self-Play for Open-Domain Dialog Systems", in NIPS 2019, pp.13658-13669, 2019.
[7]R Sennrich, "How Grammatical is Character-level Neural Machine Translation? Assessing MT Quality with Contrastive Translation Pairs", in Proc. EACL, pp.376-382, 2017.
[8]R. Bawden, R. Sennrich, A. Birch and B. Haddow, "Evaluating Discourse Phenomena in Neural Machine Translation”, in Proc. NAACL-HLT 2018, pp. 1304-1313, 2018.
[9]E. Voita, R. Sennrich and I. Timov, "When a Good Translation is Wrong in Context: Context-Aware Machine Translation Improves on Deixis, Ellipsis, and Lexical Cohesion”, in Proc. ACL 2019, pp.1198-1212, 2019
[10]永田, 森下, “日本語から英語への文脈翻訳テストの提案”, 言語処理学会第 25 回年次大会, 2019 .
[11]J. Li, M. Galley, C. Brockett, J. Gao and B. Dolan, "A Diversity-Prompting Objective Function for Neural Conversation Models, in Proc. NAACL-HLT 2016, pp. 110-119, 2016.
[12]鈴木, 加藤, 田村, 呉, 楊, 服部, “ニューラル対話モデルの自動評価に向けた応答文の誤り分析”, 電子情報通信学会総合大会 2021, 発表予定. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P8-9.pdf | # ルールベースと生成ベースを融合した雑談対話の発話生成手法
薛強
神戸大学システム情報研究科
xueqiang@kobe-u.ac.jp
}
滝口 哲也
神戸大学システム情報研究科
takigu@kobe-u.ac.jp
}
有木 康雄
神戸大学システム情報研究科
ariki@kobe-u.ac.jp
## 1 はじめに
オープンドメイン雑談対話システムの発話生成手法は主に三種類ある。一つ目は、手作業によるルー ルに従って作動するルールベースである。二つ目は、大量テキストデータから、現在の入力の応答として相応しいテキストを検索する検索べースである。三つ目は、会話形式のテキストデータを用いて機械学習により学習した生成モデルを用いて、発話を生成する生成べースである。
近年、生成ベースモデルの研究が主流となっている。その中で、Microsoft が開発した大規模な対話データを使った対話生成モデルである DialoGPT[6] や、Googleが開発した膨大なパラメータを持つ対話生成モデルである Meena[7] などの、attention 機構を持つ transformer[5] ベース対話モデルが知られている。
しかし、生成ベース型の対話システムで生成した応答文は、多様性は高いが適切な生成内容を制御することが難しいため、自然性が低いという問題がある。一方、ルールベース型の対話システムで生成した応答文は、自然性は高いが事前設定した応答文が限られているため、多様性が低いという問題がある。
本研究では、雑談対話システムにおいて出力する応答文を前半と後半に分け、それぞれルールベースと生成ベースで生成することで、自然性が高くかつ多様性が高い応答文を生成する手法を提案する。
## 2 関連研究
ルールベースと検索ベースの融合型対話システムとして、目黒らは、ユーザ発話がルールを用いて返答すべき発話か否かを識別することで,ルールベー
図 1 従来システムのアーキテクチャ
ス型対話システムと統計的発話生成手法との融合に基づく対話システムを提案した [1]。
ルールベースと生成ベースの融合型対話システムとして、我々は感情と欲求に基づく融合型雑談対話システムをこれまでに提案している [2]。図 1 に示すように、このシステムの言語計画部では、ユー ザの発話に対して、まずルールベースと生成ベースにより複数の応答文を生成し、次に言語出力部でどの応答文を返答すべきかを判断する。このシステムは、ルールベース型の対話システムとして取り扱うことができ、生成べースの役割が低く、応答文の多様性が低いという問題があった。
提案システムは, このシステムのアーキテクチャを発展させたものであり、感情と欲求に基づくルー ルベースを採用している。
## 3 提案手法
ルールベースの発話生成手法では、生成する応答文の多様性に問題がある。これを改善するため、提案手法は,発話を全て事前に設定するのではなく、発話の前半部分のみを事前に設定し、これを受け
図 2 提案システムのアーキテクチャ
て, 多様性が高い発話生成手法である生成ベースにより、発話の後半部分を生成するものである。
後半の生成ベースの発話生成では、停止トークンを認識するまで単語または単語の一部であるトークンを順番に生成することから、発話の後半部分を連続的に生成することが可能になる。また、生成べー スでは、ルールベースで生成した適切な応答に基づいて生成できるため、生成する応答文の自然性も改善できると考えられる。
提案手法の対話システムは、図 2 のようなアーキテクチャーになっている。まず,ルールベースモデルでは、ユーザの発話文に対して、感情生成部と段階欲求部が出力した感情と欲求の値により、手作業で設定したパタンを用いて前半の応答文を生成する。生成ベースモデルでは、テキスト対話文を学習データとして学習させたニューラルネットワークモデルを用いて、応答文を生成する。このとき、ルー ルベースモデルで生成した前半の応答文の一部を、生成ベースモデルの入力として、停止トークンを認識するまで連続に生成ベースモデルで後半の応答文を生成する。
図 3 に示すプロセスのように、従来の生成ベースモデルは,入力文に対して開始トークン、応答文を構成する各トークン、停止トークンの順番で応答文を生成する。提案システムの言語出力部における生成ベースモデルは,最初に入力されるのが入力文だけではなく、開始トークンと前半の応答文を構成している各トークンも入力される。モデルはそれらの入力に対して、後半の応答文を構成している各トー クン、停止トークンの順番で応答文を生成する。
## 4 実験および結果
実験では、まず大量のテキスト対話文を生成ベー スモデルに学習させ、そのモデルを用いて生成内容の制御手法を評価することで、提案手法の有効性を
図 3 生成ベースモデルの生成プロセスの違い
表 1 制御手法の評価
明らかにする。次に、提案手法を用いた融合型雑談対話システムと、従来の融合型雑談対話システムの比較実験を行う。
融合型雑談対話システムの生成ベースモデルとして、100M パラメータ数を持つ DIaloGPT モデルを用いている。学習データは Twitter で収集した 10 万の対話文である。デコーダ戦略は最も生起確率が高い上位 $\mathrm{k}$ 個のトークンから確率的に選択する top-k sampling[3]、及び生起確率が最大のトークンから順番に取り、確率の和を計算し、和が $\mathrm{p}$ 以下のトークンから確率的に選択する top-p sampling[4] 手法を用いている。ルールベースモデルでは、感情と欲求の種類と値により、全部で応答文 100 文を事前設定した。
## 4.1 制御手法の評価実験
生成ベースモデルの出力として、与えられたター ゲット応答文とシステム応答文の適切性の関係について、機械翻訳評価手法である BLEU を用いて、評価実験を行った。評価実験の結果を表 1 に示す。值が大きいほど良い評価であることを意味する。生成モデルは、DialoGPT- $N$ T で表している。ここで、 $N$ とは生成ベースモデルに与えられたトークンの数である。与えられたトークン数の増大により、生成ベースモデルがよりターゲット応答文の内容に近づくことが分かった。4つのトークンが与えられたときに、約半分の生成内容は与えられた応答文と関係があった。
表 2 各対話システムの対話例
## 4.2 対話システムの比較実験
生成ベースモデル DialoGPT、従来システム、提案システムで生成した発話例を表 2 に示す。赤色部分は提案システムの生成ベースにより、生成した後半の応答文である。サンプリングのデコーダ戦略を用いているため、提案システムの二つ異なる対話例を挙げ、それぞれ提案システム 1 と提案システム 2 で表している。
第一の対話例では、ユーザ発話に対して認識した感情と欲求がない場合であり、ルールベースで応答を出力することができず、生成べースのみで応答を生成したため、三つのシステムが同じ応答を生成している。
第二と第三の対話例では、ユーザ発話に対して認識した感情と欲求がある場合であり、従来システムと提案システムのルールベースが作動する。従来システムは多様性がない同じ応答文を生成する一方、提案システムでは, 自然性が高い前半の応答文の内容に基づいて、多様性が高い後半の応答文を生成できていることが分かる。
第三の対話例では、時間情報によって欲求が食欲になったため、ルールベースモデルはもう一つの応答文を生成している。
## 5 おわりに
本稿では、ルールベースモデルと生成ベースモデルにより各々, 前半と後半部分の応答文を生成
する、発話生成手法を提案した。提案手法により、 ルールベースモデルで応答文を全て設定する必要がなくなり、ルールベースを構築するコストが減少できると考えられる。
今後、異なるルールベースモデルを用いて比較実験を行う予定である。また、提案手法で生成した応答文の多様性を向上させるため、応答文を前後に分けるのではなく、品詞や意味などに沿って分ける手法を研究する予定である。
## 参考文献
[1] 目黒豊美, 杉山弘晃, 東中竜一郎, 南泰浩. ルールベー ス発話生成と統計的発話生成の融合に基づく対話システムの構築. The 28th Annual Conference of the Japanese Society for Artificial Intelligence, ,2014.
[2] 薛強, 滝口哲也, 有木康雄. 感情・欲求に基づく主観性を持つ雑談対話システム. 言語処理学会第 26 回年次大会発表論文集,2020 年 3 月.
[3] Angela Fan, Mike Lewis and Yann Dauphin. Hierarchical Neural Story Generation, 2018; arXiv:1805.04833.
[4] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes and Yejin Choi. The Curious Case of Neural Text Degeneration, 2019; arXiv:1904.09751.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser and Illia Polosukhin. Attention Is All You Need, 2017; arXiv:1706.03762.
[6] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu and Bill Dolan. DialoGPT: Large-Scale Generative Pretraining for Conversational Response Generation, 2019; arXiv:1911.00536.
[7] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu and Quoc V. Le. Towards a Human-like Open-Domain Chatbot, 2020; arXiv:2001.09977. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-10.pdf | # 文献抄録中の主題材料に着目した超伝導材料に関する情報抽出
山口京佑 ${ }^{1}$ 旭 良司 ${ }^{2}$ 佐々木裕 ${ }^{1}$
1 豊田工業大学
2 株式会社 豊田中央研究所
${ }^{1}$ \{sd19453, yutaka.sasaki\}@toyota-ti.ac.jp,
${ }^{2}$ ryoji.asahi@chem.material.nagoya-u.ac.jp
## 1 はじめに
近年物質科学の分野では,機械学習をはじめとする情報科学のアプローチを物質科学に適用することで,属人的な知見に依存しない効率的な材料探索を目指すマテリアルズインフォマティクス (Materials Infomatics; MI) の研究が活発化している [1]. MI においては所望の材料および物質特性に関する大量のデータが必要となるが,現状ではその多くが関係データベースのような形で構造化されておらず,開発を進める上でのボトルネックとなっている.
超伝導材料は医療機器やリニア新幹線といった幅広い分野へ応用されている材料であり, 物質科学において重要な材料の一つである.銅酸化物系の高温超伝導体 [2] が発見されて久しいが,実応用に向けては転移温度や臨界磁場がより高く,加工しやすい材料が必要とされている $[3,4]$.
本研究では,文献抄録から超伝導材料に関する情報をスロット抽出するシステムの構築を目指す. 本研究の概要を図 1 に示す. システム構築に際して, まずは抄録 1,000 件に対して抽出したい超伝導材料情報を注釈付けし,教師データを作成する。提案システムは固有表現・関係・イベント抽出モデルと主題材料分類モデルの 2 つのニューラルネットワークと,これらの予測結果を統合して最終的なスロット抽出を行うルールベースのモジュールで構成される. 作成した教師データを基に 2 つのモデルを独立に学習し, 予測時にはパイプラインでつなげて運用する.
## 2 超伝導情報の注釈付け
我々の先行研究 [5] において,超伝導材料に関する文献抄録 1,000 件に対して7つの固有表現クラスを注釈付けした。本研究ではこれを拡張する形で,
図 1 本研究の概要
超伝導材料に固有の情報である転移温度とドーピング情報を関係付けし,これらを対応する材料組成に紐づけることでスロット抽出を行う。抄録 1 件に注釈付けした例を図 A. 1 に示す. 本研究で特に重要な固有表現クラスは以下の 3 つである。その他のクラスに関しては表 A. 1 を参照されたい。
Element "Ti", "oxygen", " $\mathrm{YBa}_{2} \mathrm{Cu}_{3} \mathrm{O}_{7}$ " といった元素名や化合物名を対象とする.2.1 節と 2.2 節で述べる転移温度・ドーピング情報の紐づけ対象である。
Doping: “doping", "substitute", "addition”などのドーピング操作を表すエンティティを対象とする。本研究ではイベントトリガーとして再定義される.
Value: “ $45 \%$ ” “ $95 \mathrm{~K}$ ”といった単位まで含めた定量表現全般を対象とする。
超伝導材料に固有の情報を抽出するにあたり,本研究では上記に加えて新たにSC クラスを定義した。
SC: 超伝導を意味する “superconductivity” や超伝導への転移温度を表す “Tc” など,超伝導特性に関するエンティティを対象とする。
## 2.1 転移温度の注釈付け定義
物質科学における定量情報は多くの場合,属性名と属性値の関係で整理できる。これらの間の等価性を表す関係クラスとして Equivalent を定義した。
ここで Equivalent は属性名から属性値に対して注釈付けされ,文内の関係のみを対象とする. 転移温度の場合,文献中では “ $T_{c}=95 K$ ” のように記述されることが多く,抽出したい属性名は固有表現クラス SC に,属性値は Value に属する。
## 2.2 ドーピング情報の注釈付け定義
文献中でのドーピングに関する情報はイベントの枠組みで定義可能である.例として“Zn doping into the $\mathrm{CuO}_{2}$ plane” を仮定すると,この場合 “doping” がイベント発生を表すトリガーとなり,イベント引数として “Zn”が材料へ添加物であるドーパント, “ $\mathrm{CuO}_{2}$ ” がドーパントの受け入れ先であるサイトと解釈できる. これを踏まえ, 本研究では先行研究 [5] で固有表現クラスとして定義した Doping をイベントトリガークラスとして再定義し,イベントロールクラスとして Dopant と Siteを新たに定義した.
## 2.3 超伝導材料情報の注釈付け定義
本研究では固有表現クラス Element に属する材料組成に対して転移温度・ドーピング情報を紐づける形でスロット抽出を行う。これらを紐づけるための関係クラスとして Target を定義した. ただし Target は転移温度・ドーピング情報から材料組成に対して注釈付けされ,文内のみを対象とする。
ここで問題となるのが,材料組成と転移温度・ ドーピング情報が文を跨いで言及される場合であり,文内の関係を対象とする Target による紐づけのみでは情報の取りこぼしが発生してしまう。本研究では,抄録において文献の主題となる材料に関する事実や実験結果が集約して述べられている場合が多い事実に着目し,抄録中の主題材料を特定した上で転移温度・ドーピング情報を紐づける方法を提案する。
主題材料の特定は Element エンティティを対象にそれぞれが文献の主題であるか否かを判定する二値分類問題として設定し, 注釈付けは Element エンティティの内,主題材料であるものを新たに定義した固有表現クラス Main で上書きする形で行う.なお,転移温度・ドーピング情報の主題材料への紐づけは 3.3 節で述べるルールに従って行われる.
抄録中では材料組成に対するドーピングの結果として転移温度が記述される場合がある.この場合ドーピングが転移温度を条件付けしていると解釈でき,この時成り立つ関係クラスとして Conditionを
図 2 主題材料分類モデルの概要
定義した。ただしCondition は転移温度からドーピングのイベントトリガーに向かって注釈付けされ,文内の関係のみを対象とする。
## 3 提案システム
提案システムは固有表現・関係・イベントを抽出
ルネットワークと,これらの結果を統合しスロット抽出するルールベースのモジュールで構成される.以下ではそれぞれについて詳しく述べる。
## 3.1 固有表現・関係・イベント抽出
本研究では固有表現・関係・イベントの同時抽出手法である DyGIE++ [6] を用いる. DyGIE++は各タスクを解く手掛かりとなる情報を相互にグラフ伝搬する機構により,それぞれのエンドタスクで高い抽出性能を実現している.原著論文ではこれら 3 つのタスクの補助タスクとして共参照解析も同時に解いているが,本研究では共参照を注釈付けしていないため,このタスクは対象外とした。
## 3.2 主題材料分類
DyGIE++で抽出されたElement エンティティを対象に,それぞれが主題材料であるか否かの二値分類問題を解く. 提案モデルの概要を図 2 に示す.
主題材料を特定する上では抄録全体の文脈を考慮する必要があるため,モデル入力は文単位ではなく抄録全体とする。単語埋め込み手法は BERT [7] を長い系列長が扱えるように改良した Longformer [8] を用いる. 入力系列を $T=\left.\{x_{1}, x_{2}, \ldots, x_{L}\right.\}$ とすると, Longformer の表現ベクトルは以下で表される.
$
\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \ldots, \boldsymbol{x}_{L}=\text { Long former }\left(x_{1}, x_{2}, . ., x_{L}\right)
$
$
\text { ただし, } \boldsymbol{x}_{i} \in \mathbb{R}^{d} \text { である. }
$
次に抄録中の各 Element エンティティについて, スパンを構成する全トークンの表現ベクトルの要素平均を以下のように計算し,スパン表現 $g_{i}$ を得る.
$
\boldsymbol{g}_{i}=\frac{1}{n-m+1} \sum_{j=m}^{n} \boldsymbol{x}_{j}
$
ただし, $m, n$ はそれぞれスパン $\boldsymbol{g}_{i}$ の先頭トークンインデックス,末尾トークンインデックスであり, $0 \leq m \leq n \leq L$ である.
さらにスパン表現 $\boldsymbol{g}_{i}$ を以下の式で計算することで,スパンが主題材料である確率 $p_{i}$ を得る. $p_{i}$ が 0.5 よりも小さい場合には「主題材料でない」,大きい場合には「主題材料である」としてモデルの予測結果が得られる.
$
p_{i}=\operatorname{Sigmoid}\left(\boldsymbol{w}^{t}\left(\operatorname{ReL} U\left(\boldsymbol{g}_{i}\right)\right)\right)
$
ただし, $w \in \mathbb{R}^{d}$ である.
学習時は損失関数としてバイナリ交差エントロピー損失 (Binary Cross Entoropy Loss; BCELoss) を用い,パラメータ更新は Longformer を含めたネットワーク全体に対して抄録単位で行う。
## 3.3 ルールによるスロット抽出
DyGIE++と主題材料分類モデルにより抽出された情報は事前に定義したルールにより,材料組成・ ドーパント・サイト・転移温度の4つからなるスロットとして抽出される。大まかなルールは以下の通りである。
1. Condition クラスで関係付けされた転移温度とドーピング情報をスロットに埋める
2. Target クラスで関係付けされた材料組成と転移温度・ドーピング情報をスロットに埋める
3. 2 で紐づけされなかった転移温度・ドーピング情報について,最も近いMainエンティティを対応する材料組成とみなしてスロットに埋める
## 4 実験
作成した注釈付きコーパスを 10 分割して訓練データ 800 件,検証データ 100 件,テストデータ 100 件の組み合わせを 10 パターン用意し,提案システムの学習と評価を行った. コーパス全体の解析結果を表 A.2, 表 A.3,表 A. 4 に示す。なお,以下で述べる表中の評価スコアは 10 個のモデルの平均および標準偏差である.
## 4.1 固有表現・関係・イベント抽出の評価
実験は著者実装のモデル1)を用いて行った.実験設定の詳細を表 A. 5 に示す. 各タスクの評価結果はそれぞれ表 1 , 表 2 , 表 3 の通りである.
表 1 より本研究で重要な 3 つの固有表現クラス Element, Value, SC は高い精度で抽出できていることが分かる. 表 2 の関係クラスの評価はエンティティペアの固有表現クラスと関係クラスの予測結果が正しい場合のみ真陽性とした。 スロット抽出を行う上で特に重要な Target は $\mathrm{F}$ 值が $77.1 \%$ という結果となった. 表 3 の Total はイベント全体の評価であり, トリガーと引数の固有表現クラス,トリガーと引数間のイベントロールが全て正しい場合を真陽性としてカウントした. Total のスコアが高いのは全体としてドーパントがサイトの約 4.5 倍の出現回数あり,ドーパントの精度に引っ張られていることに起因している。
## 4.2 主題材料分類の評価
ここではモデルへの入力として人手で注釈付けした正しいElement を与えた場合と,DyGIE++が予測したElementを与えた場合の 2 通りで評価した. 実験設定を表 A. 6 に,評価結果を表 4 に示す.
人手による正解の Element 情報を与えた場合は, $\mathrm{F}$ 值が平均で $83.9 \%$ という結果となった (Gold). この結果が主題材料分類モデルの本来の分類性能である. DyGIE++による予測結果の Element 情報を与えた場合には, $\mathrm{F}$ 值が平均で $75.7 \%$ という結果となった (DyGIE++) 。表 1 から DyGIE++の Element の予測精度は $89.4 \%$ であるため,この分の誤差が含まれたスコアとなっている。
## 4.3 End-to-End でのスロット抽出の評価
ここではまず,注釈付きコーパスをルールで変換した際の主題材料への紐づけ精度の検証を行った。 ランダム選択した 200 件を対象にルールによる主題材料への紐づけで抽出されたスロットが正しいかを
変換であることが分かった. これを踏まえ,ここでは注釈付きコーパスに対してルールを適用して得られたスロットを正解として扱うこととした。得られたスロットの解析結果を表 A. 7 に示す.
上記の正解スロットに対して,材料組成への明
1) https://github.com/dwadden/dygiepp
示的な紐づけを行う DyGIE++のみを用いて得られたスロットの抽出精度 (Rel. only) と, これと併せて材料組成への暗黙的な紐づけを行う主題材料分類モデルを用いて得られたスロットの抽出精度 (E2E: End-to-End)を表 5 に示す.
Rel. only と E2Eを比較すると再現率が 2 倍近く向上しており,主題材料を用いた暗黙的な紐づけが効果的であることが明らかとなった. 一方で適合率は, Rel. onlyよりも E2E の方が若干低下しており,主題材料へ暗黙的に紐づけする場合よりも明示的な紐づけを行う場合の方が正確性が高くなるだろうという直感に従う結果が得られた. E2E の $\mathrm{F}$ 值は $64.7 \%$ となり,これが提案システムにおける最終的なスロット抽出精度である。
## 5 関連研究
Tshitoyan ら [9] は,無機材料全般に関する文献抄録 330 万件を用いて word2vec [10]を学習し, 単語間のベクトル表現の類似度が高いもの同士を調査することで文献中に埋め込まれた知識を獲得するアプローチを提案している。
Weston ら [11] は無機材料に関する抄録を,山口ら [5] は超伝導材料に関する抄録を対象に,材料名や分析手法といった材料全般に共通する固有表現抽出の取り組みを報告している。
大西ら [12] は学術文献から材料設計で重要となるプロセス・構造・特性に関するエンティティとその相関関係を遠距離教師あり学習の枠組みで抽出する手法を提案している. 抽出されたエンティティとそれらの相関関係は知識グラフとして整理される。
ChemDataExtractor [13] は論文中の見出し・パラグラフ・キャプション・表を対象として, 化学組成とそれに紐づく属性情報を抽出する手法である. 具体的には,まず品詞情報と固有表現を機械学習を用いて取り出し, それらの情報を基にテキストを句構造解析することで所望の情報を抽出する流れとなっている. 句構造解析では人手で定義したルールが用いられている。
超伝導に関する学術文献に ChemDataExtractor を適用した研究として [14] が報告されている.ここでは磁性・超伝導特性を発現する材料とその転移温度を抽出し,それを元に機械学習を用いた転移温度の予測モデルが提案されている. また,別のアプロー チで同様の超伝導材料とその転移温度のペア情報を抽出する研究として [15]が報告されている. これら
の先行研究では, 本研究が抽出対象としているドー ピングに関する情報は扱われていない。
## 6 おわりに
本研究では文献抄録中で記述される超伝導材料に固有の情報として,定量情報である転移温度と実験操作であるドーピング情報をそれぞれ関係抽出とイベント抽出の枠組みでタスク化し,これらを関係抽出と主題材料情報を用いて対応する材料組成に紐づけることにより,スロット抽出システムを構築した. End-to-End のスロットの抽出精度として F 值約 64\%が得られることを世界で初めて明らかにした。今後の主な課題として, スロット情報の拡張と文書レベルでのシステム構築が挙げられる。
## 参考文献
[1]Rampi Ramprasad, Rohit Batra, Ghanshyam Pilania, Arun Mannodi-Kanakkithodi, and Chiho Kim. Machine learning in materials informatics: recent applications and prospects. npj Computational Materials, Vol. 3, No. 1, pp. 1-13, 2017.
[2]J.G Bednorz and K.A. Müller. Possible hightc superconductivity in the ba-la-cu-o system. Zeitschrift für Physik B Condensed Matter, Vol. 64, No. 2, pp. 189-193, 1986.
[3]Malozemoff et al. High-temperature cuprate superconductors get to work. Physics Today, Vol. April, pp. 41-47, 2005.
[4]Foltyn et al. Materials science challenges for hightemperature superconducting wire. Nature Mater., Vol. 6, pp. 631-642, 2007.
[5]Kyosuke Yamaguchi, Ryoji Asahi, and Yutaka Sasaki. SCCoMIcs: A superconductivity corpus for materials informatics. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6753-6760, Marseille, France, May 2020. European Language Resources Association.
[6]David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, relation, and event extraction with contextualized span representations. In EMNLP/IJCNLP, 2019.
[7]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019.
[8]Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv:2004.05150, 2020.
[9]Vahe Tshitoyan, John Dagdelen, Leigh Weston, Alexander Dunn, Ziqin Rong, Olga Kononova, Kristin A Persson, Gerbrand Ceder, and Anubhav Jain. Unsupervised word embeddings capture latent knowledge from materials science literature. Nature, Vol. 571, No. 7763, pp. 95-98, 2019.
[10]Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26, pp. 3111-3119. Curran Associates, Inc., 2013.
[11]L. Weston, V. Tshitoyan, J. Dagdelen, O. Kononova, A. Trewartha, K. A. Persson, G. Ceder, and A. Jain. Named entity recognition and normalization applied to large-scale information extraction from the materials science literature. Journal of Chemical Information and Modeling, Vol. 59, No. 9, pp. 3692-3702, 2019. PMID: 31361962.
[12]Takeshi Onishi, Takuya Kadohira, and Ikumu Watanabe. Relation extraction with weakly supervised learning based on process-structure-property-performance reciprocity. Science and technology of advanced materials, Vol. 19, No. 1, pp. 649-659, 2018.
[13]Matthew C Swain and Jacqueline M Cole. Chemdataextractor: a toolkit for automated extraction of chemical in- formation from the scientific literature. Journal of chemical information and modeling, Vol. 56, No. 10, pp. 1894-1904, 2016.
[14]Callum J Court and Jacqueline M Cole. Magnetic and superconducting phase diagrams and transition temperatures predicted using text mining and machine learning. npj Computational Materials, Vol. 6, No. 1, pp. 1-9, 2020.
[15]Luca Foppiano, Thaer Dieb, Akira Suzuki, and Masashi Ishii. Proposal for automatic extraction framework of superconductors related information from scientific literature. 電子情報通信学会サービスコンピューティング研究会 2019 年度第一回研究会, 第 43 回 MaDIS 研究交流会合同研究会, 2019.
## A 付録
図 A. 1 抄録 1 件に注釈付けした例
表 A. 1 その他の固有表現クラス
表 A. 2 固有表現クラスの解析結果
表 A. 3 関係クラスの解析結果
表 A. 4 Doping イベントの解析結果
表 A. 5 DyGIE++の実験設定
エポック 50
最適化手法 AdamW
学習率 $5 \mathrm{e}-4$
ターゲットタスク関係抽出
スパン長さ 10
表 A. 6 主題材料分類モデルの実験設定エポック 30
最適化手法 AdamW
学習率 $2 \mathrm{e}-5$
表 A. 7 ルールにより抽出されたスロットの解析結果
| NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-11.pdf | # STILTs を適用した機械読解による Wikipedia 記事の構造化
石井 愛
日本ユニシス株式会社 総合技術研究所
ai.ishii@unisys.co.jp
## 1 はじめに
自然なコミュニケーションで問題解決に導いていく人に寄り添う AI を実現するためには,人の言葉の文脈を理解することや,人の常識や知識を共有することが必要とされる. より大規模で体系だった知識ベースの整備が望まれる中で,森羅プロジェクト [1]では, Wikipediaを機械可読な構造に変換する構造化を目指している. 既存の知識べースの一貫性の課題を解決するため,森羅では,あらかじめ定義された名前のオントロジーである「拡張固有表現」[2](以降,ENE)にWikipedia 記事を分類し,ENE に定義されている属性に対応する値を記事中から抽出する.森羅では, ENE に定義されている属性に対応する値を記事中から抽出する部分を「日本語 Wikipedia 構造化タスク」として, 評価型ワークショップを開催し, 同時に参加者のシステムによるリソース構築を進めている.
本稿では, 日本語 Wikipedia 構造化タスクを, 機械読解タスクとして定式化し, BERT[3]の事前学習モデルを用いて解くシステムにおいて, STILTs[4] と呼ばれる中間タスクを用いる手法を提案する。提案手法は,スパースなデータセットにおいて,限られた GPU リソース上で実行可能で, かつ機械読解の性能を向上させる効果的な学習を可能とする.評価実験では,中間タスクを用いない場合と比較し,提案手法の有効性を検証する。
## 2 日本語 Wikipedia 構造化タスク
日本語 Wikipedia 構造化タスクは, Wikipedia 記事のカテゴリごとに ENE に定義されている属性に対応する値を Wikipedia 記事中から抽出するタスクである. たとえば「企業名」カテゴリでは, 属性として「正式名称」,「事業内容」など 34 種類の属性が ENE で定義されている[5]. あらかじめ各カテゴリに分類された Wikipedia 記事と, 属性値の記事中の出現箇所をアノテーションした教師データが与えられ, それをもとに未アノテーションの記事を含むすべて
の記事から属性値を抽出する。そのうち非公開の 100 記事を用いて評価が行われる[6].
2019 年に開催された「森羅 2019-JP」では, 記事数の多いカテゴリを中心とした JP-5 グループの,人名, 市区町村名, 企業名, 化合物名, 空港名の 5 力テゴリおよび,地名グループと組織名グループからなる 28 カテゴリが対象とされた. アノテーションデータは, JP-5 は各カテゴリ約 1000 記事, 地名および組織名は各カテゴリ約 200 記事である. 属性值は, 1 記事内に複数存在する場合や, 一つも存在しない場合がある. JP-5 のアノテーションデータにおける,一つの記事内の属性値の個数を平均すると, 最大の属性で 46.8 , 最小の属性で 0.03 , カテゴリごとの中央値は $0.53 \sim 1.03$ であり,属性によっては非常にスパースなデータである.
## 3 関連研究
日本語 Wikipedia 構造化タスクと直接関連が強い固有表現抽出において,Li ら[7,8]は,BERT を用いた機械読解手法で他の手法よりも良い精度を達成している[9].これまで開催された日本語 Wikipedia 構造化タスクにおいても,DrQA[10]を応用した機械読解システム[11]や RoBERTa[12]を用いた機械読解システム[13]が良い成績を収めている $[1,6]$. 評価型夕スクの結果の分析では, 属性值が単語ではなく文で記載されやすい「製造方法」などの属性の抽出,および訓練データが少ないカテゴリにおける属性値の抽出で精度が伸びないことが課題として示された。訓練データが少ないカテゴリにおいては,カテゴリ間で共通する属性が存在するため,[13]のシステムのようにカテゴリを横断して学習を行うことの有効性が示唆されている[6]. ただし, BERT や RoBERTa のような事前学習モデルを用いて多数あるカテゴリを横断して学習を行うには,大きな GPU リソースが必要となる.
表 1 機械読解用に変換したデータの例
\\
機械読解は, 質問と, 解答のための情報源となるテキスト (パッセージ) を入力として,解答となる情報をパッセージから抽出するタスクである。機械読解システムは, 質問に答えるだけでなく, 与えられたパッセージに解答となる情報が含まれていない場合にそれを判断する必要がある. 解答できない問題を含む機械読解のデータセットである SQuAD 2.0[14]において, Retrospective Reader[15]は, パッセ ージに解答が含まれているかどうかを 2 値分類するタスクと,パッセージから解答を抽出する機械読解タスクに役割をわけ, 別々のモデルで学習, 予測した結果を統合することで, 良い精度を達成している。
BERT のような事前学習モデルの性能をさらに改善する方法の一つとして, 最初に中間タスクで事前学習モデルをファインチューニングしてから, 対象とするターゲットタスクで再度ファインチューニングする手法が提案されている[4,16-18]. これらの手法はSTILTs と呼ばれている.ターゲットタスクごとに事前学習モデルを一から作成することは計算コストが非常に高いため, 計算コストが低く実装が容易な手法として注目されている.
## 4 提案手法
## 4.1 提案手法の概要
日本語 Wikipedia 構造化タスクを, Wikipedia 記事内のパッセージから質問(属性名)の値となる解答 (属性値)出力する, 解答できない問題を含む機械読解タスクとして解く. 本タスクのデータセットでは属性によって属性値が一つも含まれない記事が多数存在し, さらに記事をパッセージに分割するため解答できない問題が非常に多くなる. そこで, 解答
できない問題を除外し,グループ内の全カテゴリを横断して学習する中間タスクを用いることを提案する. 解答できない問題を除外することでデータ件数を削減し, 限られた GPU リソース上で実行可能とする. カテゴリを横断して学習することで,訓練デ一タが少ないカテゴリにおいて類似するカテゴリからの学習結果が得られること, 解答可能かどうかの判断は行わないことで役割分担ができ, 効果的な学習が行われることを狙う,中間タスクでファインチユーニングしたモデルを用いて対象のカテゴリのみで学習するターゲットタスクでは,解答できない問題も含めて学習する.
提案手法は Retrospective Reader[15] と同様に役割をわけて学習を行うが,別々のモデルではなく中間タスクとした点と, 解答可能かどうかの判断をする 2 值分類タスクではなく機械読解タスクとする点で異なる. 予備調查の結果から, 2 值分類タスクの場合, 正解データに抽出する箇所の情報が含まれないため, 学習の際の情報量が不足すると考えられたためである.
BERT の出力は, [13]を参考に, 各単語の $\mathrm{BIO}$ 夕グとする,BIO夕グは固有表現抽出においてよく用いられる正解ラベルで, B, I, O は, それぞれ単語が解答の先頭,内側,外側にあることを示すものである。
## 4.2 機械読解用データセットへの変換
Wikipedia 記事内を,HTML タグを分析して小見出しごとに区切ったものをパッセージpとし, $p$ の範囲内に含まれる属性値のデータから属性を質問 $q$, 属性值を解答 $A=a_{1}, a_{2}, \ldots, a_{k}$ とするデー夕に変換する. $p$ に属性値が含まれない属性は $k=0$ となる. $a_{i}$ は $p$ 内における開始・終了位置情報および,解答の文字列である. 表 1 に機械読解用に変換したデータの例を示す. pは HTML タグ中のオプション部分を空白で置き換える処理を行って作成する.
## 4.3 機械読解モデル
BERT を用いた機械読解モデルは, $(p, q, A)$ を入力として, 各単語の $\mathrm{BIO}$ タグを出力する. 中間夕スクとターゲットタスクのモデルは共通である.
BERT への入力系列は, 質問 $q$ の単語トークン列 $\mathrm{q}=q_{1}, q_{2}, \ldots, q_{m}$ およびパッセージ $p$ の単語トークン列 $\mathrm{x}=x_{1}, x_{2}, \ldots, x_{n}$ を以下のように連結したものとする.
表 2 データ件数
} & \multicolumn{3}{|c|}{} \\
$\left.\{[\mathrm{CLS}], q_{1}, q_{2}, \ldots, q_{m},[\mathrm{SEP}], x_{1}, x_{2}, \ldots, x_{\mathrm{n}}\right.\}$
ここで, [CLS], [SEP] は BERT の特別なトークンである. 単語トークン系列 $\mathrm{x}=x_{1}, \ldots, x_{j}, \ldots, x_{n}$ に対応する BERT の最終層の隠れ状態べクトル $T_{\mathrm{x}}$ を力とする分類層で,ラベルごとのスコア $S_{\mathrm{x}}=$ $S_{x_{1}}, \ldots, S_{x_{j}}, \ldots, S_{x_{n}}$ を出力する. $S_{x_{j}}$ が最も大きいラべルを予測ラベル $y_{x_{j}}^{\prime}$ とし, 正解ラベル $\mathrm{y}=y_{x_{1}}$,
$\ldots, y_{x_{j}}, \ldots, y_{x_{n}}, y_{x_{j}} \in\{\mathrm{B}, \mathrm{I}, 0\}$ との交差エントロピー 誤差を用いて BERT のファインチューニングを行い,単語トークンごとに 3 値に分類する問題を解く. 予測時には予測ラベルy'がB, Iの系列となった単語トークン列を解答候補とし, 単語トークン列および単語トークン列のラベルのスコアの平均値をスコアとして出力する.
また,BERT の入力系列には長さの制限があり,最大トークン長以内に収める必要がある. 入力系列が最大トークン長よりも長くなる場合, [SEP]の後ろの系列を,設定したトークン数(ストライド)分ずらしながら複数の入力系列を生成する.
## 4.4 解答候補のルールによる整形
機械読解モデルが出力する解答候補は, 以下のル ールで整形する.
- 解答文字列前後の HTML タグの削除
- 空文字および漢字以外で 1 文字の解答を除外
- HTML タグ,および記号のみの解答を除外
## 5 実験
## 5.1 実験設定
モデルの構築には,公開されているBERTの事前学習済みモデルである「NICT BERT 日本語 Pretrained モデル BPEあり」[19](以降,NICT BERT モデル) を利用した. 解答可能性付き読解データセ
ット[20]を利用した既存の日本語BERTモデルとの比較[21]において, 最も高い性能となったモデルである.システムの実装は,BERTのpytorchの実装 [22]利用した。いくつかのカテゴリにおける事前調查の結果から, バッチサイズは 32 , 学習率は $2 \mathrm{e}-$ 05 , トークンの最大長は 384 , ストライドは 128 とした. エポック数は最大值を 10 とし,Devセットにおいて精度が最も良いモデルを選択した. 入力文字列はNICT BERTモデルの仕様に合わせ,MeCab-Juman 辞書[23]で形態素に分割後, subword-nmt[24]で生成された語彙を用いてsubwordに分割してトークン化した.
## 5.2 データセット
森羅 2019-JP においてシステム開発用に配布されたアノテーションデータを, 提案手法の入力形式に変換した.データセットは訓練(以降 Train),検証 (以降 Dev),テスト(以降 Test)それぞれ, $85 \%$ , $5 \% , 10 \%$ の割合で分割し,Trainでモデルの訓練, Dev でモデル選択, Test でモデルの評価を行った.生成した BERT 用の入力系列の Train, Dev, Test の件数を表 2 に示す. 中間タスクのデータセットは,グループ内のすべてのカテゴリを横断したデー タセットである.表 2 で示したように,Train と
Dev から解答できない問題を除外することで,おおよそ 10 分の 1 程度のデータ件数になった。
## 5.3 評価指標
森羅のスコアラー[25]にて算出される属性ごとの F値のマイクロ平均を, 各カテゴリの評価指標とする. 地名および組織名に関しては, グループに含まれるカテゴリごとのF值のマイクロ平均をさらに平均した値を用いる。
## 6 結果と考察
## 6.1 提案手法の有効性
提案手法の有効性を評価するため, 森羅2019-JP における非公開の 100 記事を用いた評価型ワークシヨップでの評価との比較結果をを表 3に示す. 他のシステムと比較し, 提案手法は, JP-5の5カテゴリおよび地名, 組織名の平均值において, 他の手法を0.01から0.12上回る結果となった。
$ 全カテゴリの結果が提出されたチームの結果を掲載.
}
表 3 他の手法との比較結果
& & Tanaka & \\
表 4 中間タスクの有効性の評価
} & 空港名 & 0.819 & $\mathbf{0 . 8 3 0}$ \\
\cline { 2 - 4 } & 市区町村名 & 0.630 & $\mathbf{0 . 6 6 1}$ \\
\cline { 2 - 4 } & 企業名 & 0.590 & $\mathbf{0 . 6 0 8}$ \\
\cline { 2 - 4 } & 化合物名 & 0.518 & $\mathbf{0 . 5 8 1}$ \\
\cline { 2 - 4 } & 人名 & 0.750 & $\mathbf{0 . 7 5 1}$ \\
表 5 抽出が難しい属性についての調査結果
& 属性名 & & \\
## 6.2 中間タスクの有効性
中間タスクの有効性を評価するため, 以下のモデルの比較結果を表 4亿示す.
- BERT モデル:中間タスク無しでカテゴリごとにファインチューニングするモデル
- 提案手法: 中間タスクでファインチューニング後に,カテゴリごとにファインチューニングするモデル
表 4のとおり, 提案手法はBERTモデルと比較して,寸べてのカテゴリで結果が改善した.訓練デー 夕件数が少ない地名および組織名においても,中間タスクが有効であることが示された.次に,抽出が難しい属性について抽出能力を向上させることができたかどうかを検証する.抽出が難しい属性として,解答文字列長の平均が 100 文字以上の属性を対象として調査した結果を表 5亿示す.提案手法はBERTモデルと比較して,調查したすべての属性で結果が改善した。地名および組織名の「名前の謂れ」,「地名の謂れ」という属性は, 正解デ一夕が1カテゴリに平均60件前後と少なく,かつ,解答文字列長は長いことから,特に抽出が難しい属性である。中間タスクにおいて,グループ内の複数のカテゴリの正解データを用いることができたことが精度の改善につながったと考える。また,化合物名の「製造方法」や,市区町村名の「地名の謂孔」 については, JP-5グループ内に同じ属性は存在しないにもかかわらず,精度が向上している,中間タスクにおいて解答できない問題を除外したことで,解答可能かどうかの判断はターゲットタスクにまかせ ,機械読解能力を効果的に学習できたと考える.
## 7 おわりに
本論文では,日本語Wikipedia構造化タスクを,解答できない問題を含む機械読解タスクとして定式化し,中間タスクを用いたBERTによる機械読解システムを提案した,中間タスクでは,解答できない問題を除外することでデータ件数を削減し,複数の力テゴリを横断した学習を可能とした。解答が含まれているかどうかの判断をターゲットタスク学習時のみにする施策と,複数のカテゴリを横断することで正解データが少ない属性に対応する施策が有効に働き,これまでの手法よりも優れた性能を達成することが示された。しかしながら, 生成した知識データを利用するには,データ件数の少ないカテゴリや属性の抽出精度をさらに改善していく必要がある.類似度の高い属性を集めて学習するなどの工夫を今後の課題としたい.
## 謝辞
本研究は, 森羅プロジェクトからデータを提供していただいて実施しました。森羅プロジェクトの皆様,意見交換させていただいたプロジェクト参加者の皆様に感謝を申し上げます。
## 参考文献
1. SATOSHI, Sekine, KOBAYASHI, Akio and NAKAYAMA, Kouta. SHINRA: Structuring Wikipedia by Collaborative Contribution. In : AKBC. 2019.
2. SEKINE, Satoshi. Extended Named Entity Ontology with Attribute Information. In : LREC. 2008.
3. DEVLIN, Jacob, CHANG, Ming-Wei, LEE, Kenton and TOUTANOVA, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In : NAACL. 2019.
4. PHANG, Jason, FÉVRY, Thibault and BOWMAN, Samuel R. Sentence Encoders on STILTS: Supplementary Training on Intermediate Labeled-data Tasks. ArXiv, 2018. ArXiv ID: 1811.01088v2
5. 拡張固有表現階層定義 Version 8.0.0. http://1iat-
aip. sakura. ne. jp/ene/ene8/definition_jp/
6. 小林暁雄, 中山功太, 安藤まや and 関根聡. Wikipedia構造化プロジェクト「森羅2019-JP」. In:言語処理学会第26回年次大会(NLP2020). 2020.
7. LI, Xiaoya, FENG, Jingrong, MENG, Yuxian, HAN, Qinghong, WU, Fei and LI, Jiwei. A Unified MRC Framework for Named Entity Recognition. In : ACL. 2020
8. LI, Xiaoya, SUN, Xiaofei, MENG, Yuxian, LIANG, Junjun, WU, Fei and LI, Jiwei. Dice Loss for Data-imbalanced NLP Tasks. In : ACL. 2020
9. LI, Jing, SUN, Aixin, HAN, Jianglei and LI, Chenliang. A Survey on Deep Learning for Named Entity Recognition. 2020. arXiv:1812. 09449
10. CHEN, Danqi, FISCH, Adam, WESTON, Jason and BORDES, Antoine. Reading Wikipedia to Answer Open-Domain Questions. In : BARZILAY, Regina and KAN, Min-Yen (eds.), ACL. 2017.
11. 石井愛. 機械読解によるWikipediaからの情報抽出. In :言語処理学会第25回年次大会 (NLP2019). 2019.
12. LIU, Yinhan, OTT, Myle, GOYAL, Naman, DU, Jingfei, JOSHI, Mandar, CHEN, Danqi, LEVY, Omer, LEWIS, Mike, ZETTLEMOYER, Luke and STOYANOV, Veselin. RoBERTa: A Robustly Optimized BERT Pretraining Approach. 2019. arXiv:1907. 11692
13. 中山功太. RoBERTaを用いたQA式属性値抽出システム. In:森羅2019-JP 最終報告会資料。2019
14. RAJPURKAR, Pranav, JIA, Robin and LIANG, Percy. Know What You Don' $t$ Know: Unanswerable Questions for SQuAD. In : ACL. 2018.
15. ZHANG, Zhuosheng, YANG, Junjie and ZHAO, Hai. Retrospective Reader for Machine Reading Comprehension. arXiv. 2020. arXiv:2001. 09694.
16. WANG, Alex, HULA, Jan, XIA, Patrick, PAPPAGARI, Raghavendra, MCCOY, R. Thomas, PATEL, Roma, KIM, Na joung, TENNEY, Ian, HUANG, Yinghui, YU, Katherin, JIN, Shuning, CHEN, Berlin, VAN DURME, Benjamin, GRAVE, Edouard, PAVLICK, Ellie and Bowman, Samuel R. Can You Tell Me How to Get Past Sesame Street? Sentence-Level Pretraining Beyond Language Modeling. In : ACL. 2019.
17. CLARK, Christopher, LEE, Kenton, CHANG, MingWei, KWIATKOWSKI, Tom, COLLINS, Michael, TOUTANOVA, Kristina and ALLEN, Paul G. BoolQ: Exploring the Surprising Difficulty of Natural Yes/No Questions. In : NAACL-HLT. 2019
18. SAP, Maarten, RASHKIN, Hannah, CHEN, Derek, LEBRAS, Ronan and CHOI, Yejin. SocialIQA: Commonsense Reasoning about Social Interactions. EMNLP-IJCNLP. 22 April 2019
19. NICT BERT 日本語 Pre-trained モデル. https://alaginrc. nict. go. jp/nictbert/index. html
20. 鈴木正敏, 松田耕史, 岡崎直観 and 乾健太郎. 読解による解答可能性を付与した質問応答データセットの構築. In :言語処理学会第24回年次大会 (NLP2018). 2018.
21. Experiments_on_RCQA. https://alaginrc. nict. go. jp/nictbert/Experiments_on_RCQA. html
22. WOLF, Thomas, DEBUT, Lysandre, SANH, Victor, CHAUMOND, Julien, DELANGUE, Clement, MOI, Anthony, CISTAC, Pierric, RAULT, Tim, LOUF, Rémi, FUNTOWICZ, Morgan and BREW, Jamie. HuggingFace's Transformers: State-of-the-art Natural Language Processing. 2019. arXiv:1910. 03771
23. KUDO, T. MeCab: Yet Another Part-of-Speech and Morphological Analyzer.
http://chasen. org/taku/software/mecab/.
24. GitHub - rsennrich/subword-nmt: Unsupervised Word Segmentation for Neural Machine Translation and Text Generation. https://github. com/rsennrich/subword-nmt
25. GitHub-k141303/shinra_jp_scorer:森羅2020夕スク用のスコアラー.
https://github.com/k141303/shinra_jp_scorer | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-12.pdf | # 日本語文章における Katz K Mixture Model の分析
服部 祥大 ${ }^{1}$ 吉田 光男 ${ }^{2}$ 梅村 恭司 ${ }^{1}$
1,2 豊橋技術科学大学 情報・知能工学系
}^{1}$ hattori.shota.mu,umemura $\} @$ tut.jp
${ }^{2}$ yoshida@cs.tut.ac.jp
## 1 はじめに
文書中における語の繰り返し出現を表現するモデルとして,Katz K Mixture Model が存在する。このモデルは,文章中に語がちょうど $k$ 回出現する確率を推定することができる [1].
文章中における語の繰り返しは,語の持つ意味と深く関わっていることが知られている。 ある文章に語が 1 回以上出現した場合に,その文章に語が 2 回以上出現する条件付き確率は反復度と呼ばれ,固有名詞や専門用語,キーワードなどにおいて高くなる [2]. 更に,日本語のような語の境界の情報を持たない言語においても,部分文字列の反復度を用いることで語の境界を特定し,キーワード抽出を行うことが可能である [3]. また,Katz K Mixture model における語の再出現の条件付き確率が一定であるという仮定をもとにして,条件付き確率が,繰り返しの回数に応じて単調増加しないものをテンプレートに使用される語句として抽出する試みも行われている [4].
これらの手法を利用するためには文書頻度を求める必要がある. この文書頻度を効率的に計算するアルゴリズムが存在し,コーパス中のすべての部分文字列に対して文書頻度を求めることができる [5]. このアルゴリズムを用いることでコーパス中の語を網羅的に調査することが可能となる.
Xu らは Katz K Mixture Model の仮定によって発生する問題に対応することで,推定の精度が向上することを報告している [6]. この報告は英字新聞コー パスにおいて実験・観察を行った結果に基づいており, 日本語で同様の現象が生じるかは確認されていない。そのため,本論文では英字新聞コーパスにおいて確認された振る舞いが日本語コーパスにおいても生じているかを確認し, 日本語においても同様の改善が可能であるかを調査した結果を報告する.日本語では,英語と言語の構造が異なり,特に代名詞が使われることが少ないことから,語の繰り返しの出現はより顕著であると考えられる.また,今回の実験では,コーパスに百科事典である Wikipedia を用いており,百科事典は特定の項目に対する説明の集合である。そのため, 主題となりうる語の繰り返しは,新聞よりも顕著になると考えられる。
この 2 点から, Wikipedia 日本語版における実験では, 繰り返しが多いときに問題となる Katz K Mixture Model における仮定について,より考慮するべきであると考えられる.本論文では,英字新聞の場合と同じようにこの仮定が問題となることを確認した。
## 2 Katz K Mixture Model
Katz K Mixture Model は 3-way classification をもとに考案されている [1]. 3-way classification とはある語に対して文章を
unrelated 語が出現せず,語と文章が関係ない non-topical 語が出現し,語が文章の主題ではない topical 語が出現し,語が文章の主題である
の 3 つに分類するもので,これらの文章の比率が Katz K Mixture Model のパラメータとなる.ここで,non-topical な文章と topical な文章の分類は,主題となる語は著者によって繰り返し用いられるという仮定をもとに,語が 1 回のみ出現する文章が non-topical に分類され,複数回出現する文章は topical に分類される。また,topical な文章における語の再出現の条件付き確率は一定であると仮定され, モデル化される. このとき, non-topical の文書を特別扱いしない,2 パラメータモデルも提案されている.
Xu らは繰り返しの条件付き確率が一定値として扱われることで,non-topical な文章において語が偶然に繰り返す場合が見落とされていると考え,再出現の条件付き確率について調査を行った。調査によ
り,形容詞や代名詞,接続詞などの機能語では上記の仮定が成り立つが,固有名詞などの内容語では,語の繰り返しが多いほど再出現の条件付き確率は高くなり,大きな出現数で安定する傾向にあることが分かった. また,この結果を元にして語の出現回数が少ない場合に対応する減衰係数と, 分布の末尾に対応する減衰係数を組み合わせることで頻度推定の精度が高まることが示された。
本論文で使用する記号の定義を以下に示す。これらの記号は Xu らの論文に従っている。
\\
以降は $w$ を省略して $c f や d f(k)$ のように表記をする。
Xu らの論文において Katz の 3 パラメータモデルは次の式で表されている.
$
\begin{aligned}
& P(t f(D)=k) \\
& =(1-\alpha) \delta_{k, 0}+\alpha \times(1-\gamma) \times \delta_{k, 1} \\
& \quad+\frac{\alpha \times \gamma}{\beta+1}\left(\frac{\beta}{\beta+1}\right)^{k-2} \times\left(1-\delta_{k, 0}-\delta_{k, 1}\right) \\
& \delta_{i, j}= \begin{cases}1 & \text { iff } i=j \\
0 & \text { otherwise }\end{cases}
\end{aligned}
$
パラメータは次の式で推定される.
$
\begin{aligned}
\hat{\alpha} & =\frac{d f(1)}{N} \\
\hat{\gamma} & =\frac{d f(2)}{d f(1)} \\
\hat{\beta} & =\frac{c f-d f(1)-d f(2)}{d f(2)}=\frac{c d f(3)}{d f(2)}
\end{aligned}
$
ここで
$
\frac{\beta}{\beta+1}=\frac{c d f(3)}{c d f(2)}
$
が topical な文章における再出現の条件付き確率となり,この減衰係数に従って繰り返し回数が多くなるほど語が丁度 $k$ 回出現する確率が減少していく。
2 パラメータモデルでは, その減衰係数は次の式で表される.
$
\frac{\beta}{\beta+1}=\frac{c d f(2)}{c f}
$
## 3 実験
本論文の実験ではコーパスとして日本語 Wikipedia のダンプデータ(総記事数 $1,225,965$ 件) を使用し,本文の抽出には WikiExtractor.pyを用いた.また,長い文章が多い Wikipedia の本文をそのまま使用すると語が偶然に繰り返すことが多く発生し, 条件付き確率の分布の様子を確認することが難しくなってしまったため, 本文の最初から 4 段落目までを対象とすることで文章長の制限した.
$\mathrm{Xu}$ らと同じように条件付き確率を $P(k+1 \mid k), 1 \geq$ $k \geq 8$ において観察するため, 分析の対象とする語は $d f(9) \geq 2$ かつ $d f(k+1) \neq d f(k)$ を満たすものとした.
## 3.1 機能語と内容語の分布の違い
機能語と内容語の間では,再出現の条件付き確率の分布の様子が異なると,Xu らは報告している.日本語コーパスにおいても同様の特徴があるか確認するため,いくつかの機能語と内容語について条件付き確率の分布を求めた. それぞれの分布を図 1 と図 2 にプロットする.
Katz は,語が一回だけ使用されている non-topical な状態から,語が繰り返し使用される topical な状態へと変化する確率が $P(2 \mid 1)$ であり $, P(k+1 \mid k), k \geq 2$ は topical な状態のときにどの程度の確率で, 語が再度使われるかの確率であるとしている. 図 1 を確認すると,機能語では,分布の末尾部分が不安定になっていることを無視すれば,殆どの語の条件付き
図 $1:$ 機能語の条件付き確率の分布
図 2: 内容語の条件付き確率の分布
確率がおおよそ $\mathrm{x}$ 軸に水平であり,Katz K Mixture Model の仮定に沿っているといえる。
図 2 の内容語では, $P(2 \mid 1)$ が $P(3 \mid 2)$ と比べて明らかに小さいことが確認できる。 また, $P(3 \mid 2)$ と $P(4 \mid 3)$ を比較すると $P(4 \mid 3)$ の方が大きな値をとっており, 出現回数 $k$ が増えるとともに, $P(k+1 \mid k)$ の值が徐々に大きくなり,安定していくことが分かる. これは,繰り返し出現の回数が大きくなるほど,偶発的な再出現が減り, 主題となる再出現の影響が大きくなるためである.この条件付き確率の振る舞いは Katz K Mixture Model における条件付き確率が一定値であるという仮定とは一致していない.
## 3.2 減衰係数と条件付き確率の比較
より詳しく内容語の条件付き確率の分布について調査する. 142 個の内容語においてそれぞれのモデルの減衰係数と条件付き確率の平均値, 中央値, 第 1 ・第 3 四分位数を比較したグラフを図 3 に示す. すべての統計值において 3.1 で確認された結果と同様に, $P(2 \mid 1)$ の確率が $P(k+1 \mid k), k \geq 2$ と比較してかなり小さいことが分かる。また,条件付き確率は繰
り返し回数に応じて大きくなっていき一定の值で落ち着く傾向にあることが確認できる。これは,語の繰り返し回数が少ない場合には偶然に語が繰り返すことの影響が残っており, 繰り返し回数が多くなるほどに主題に関連した繰り返しの影響が大きくなっていくことが理由であると考えられる。ここで,2 パラメータモデルの減衰係数である $c d f(2) / c f$ を条件付き確率と比較すると $P(k+1 \mid k), k \geq 2$ はこのモデルにおいて実際の値よりも小さく見積もられていることがわかる.同様に 3 パラメータモデルの減衰係数である $c d f(3) / c d f(2)$ においては $P(3 \mid 2)$ が過大に見積もられる一方で, $P(k+1 \mid k), k \geq 3$ が実際の値よりも小さく見積もられている.
それぞれの語に対する減衰係数と $P(2 \mid 1), P(3 \mid 2)$ の比較をを図 4 にプロットする.殆どの語において $d f(3) / d f(2)$ が, $c d f(2) / c f$ と $c d f(3) / c d f(2)$ の間に存在することが確認でき,日本語においても Katz の 3 パラメータモデルは繰り返しの確率 $P(3 \mid 2)$ を高く見積もり過ぎているということが示された。
Xu らは,特に $P(3 \mid 2)$ について, un-topical な状態と topical な状態の双方の影響を受けているとして, $\mathrm{k}$ に応じて減衰係数が変化するモデルを構築することでより実際の分布に近いモデルを作成した [6].
## 4 おわりに
本論文では,日本語において Xu らが提案したモデルを Katz K Mixture Model の代替として使用することが適当であるか検討した。
結果から,日本語においても語の再出現確率が実際の値よりも高く見積もられる問題が存在することが確認され,Xu らが提案したモデルによって,推定精度の改善が見込めることがわかった。
これから,日本語において Xu らのモデルを用いることで精度の改善が実際に行えるかなどを調査したい.
(a) 平均値
(c) 第 1 四分位数
(b) 中央値
(d) 第 3 四分位数
図 3: 条件付き確率 $P(k+1 \mid k)$ の統計值と減衰率の比較
図 4: 語ごとの条件付き確率と減衰率の比較
## 参考文献
[1] SLAVA M. KATZ. Distribution of content words and phrases in text and language modelling. Natural Language Engineering, Vol. 2, No. 1, p. 15-59, 1996.
[2] Kenneth W. Church. Empirical estimates of adaptation: The chance of two noriegas is closer to $p / 2$ than $p^{2}$. In $C O L-$ ING 2000 Volume 1: The 18th International Conference on Computational Linguistics, 2000.
[3] 武田善行, 梅村恭司. キーワード抽出を実現する文書頻度分析. 情報処理学会研究報告. NL, 自然言語処理研究会報告, Vol. 146, pp. 27-32, 2001.
[4] 藤原大輔, 高瀬暁央, 梅村恭司. テンプレートを構成する名詞の Katz モデルによる抽出の試み. 情報処理学会研究報告, 2007-NL-180, No. 25, pp. 145-149.
[5] Kyoji Umemura and Kenneth Church. Substring Statistics. In Computational Linguistics and Intelligent Text Processing, pp. 53-71, 2009.
[6] Yinghui Xu and Kyoji Umemura. Improvements of katz k mixture model. Journal of Information Processing, Vol. 12, pp. 131-155, 2005. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-13.pdf | # マルチタスク学習を用いた系列変換タスクの品質推定
喜友名朝視顕吉村 綾馬 金子正弘 小町守
東京都立大学
\{kiyuna-tomoshige,yoshimura-ryoma, kaneko-masahiro\}@ed.tmu.ac.jp,
komachi@tmu.ac.jp
## 1 はじめに
品質推定(Quality Estimation: QE)の目的は,人手による参照文を利用せず,タスクに応じて設計された評価項目に対して,システムの出力文を自動評価することである. QE の性能は,人手評価との相関係数で評価するのが一般的である.QE の手法として,人手評価値付きのデータセットを用いて人手評価値に最適化する教師あり手法があり,高い性能を示している $[1,2]$. しかし一般に, 教師あり手法で用いるデータセットの作成には多大なコストが必要であるため,表 1 に示すように,学習に利用できるデータセットのサイズが小さいという問題がある. そのため,モデルの性能は,ドメインやデータセットに対して一貫性がない $[10]^{1}$.
本研究では,この問題に取り組むために,複数のタスクの $\mathrm{QE}$ のデータセットを用いるマルチタスク学習手法として,3種類の方法を提案した:(1) 1つのタスクのすべての評価項目のデータを用いる手法,(2) すべてのタスクのすべての評価項目のデー タを用いる手法, (3) 複数のタスクの同じ評価項目のデータのみを用いる手法.
複数の系列変換タスク(文法誤り訂正,言い換え生成,テキスト平易化,スタイル変換)の $\mathrm{QE}$ で実験を行い,学習時のドメイン(in-domain)に加え,学習時と異なるドメイン (out-of-domain) でメタ評価を行った結果,多くのタスクと評価項目の組について,マルチタスク学習により性能が向上した. 特に,訓練データのサイズが小さいテキスト平易化の文法性および意味保存性に関する $\mathrm{QE}$ において, in-domain と out-of-domain $の$ 両方で大幅に性能が向上した。一方,性能が最も良い手法は,評価項目により異なることがわかった。
1) ニュースやフォーラムといったトピックの違いだけでなく,出力したシステムの違いも含めてドメインと呼ぶ.
## 2 関連研究
## 2.1 系列変換タスクの QE
$\mathrm{QE}$ の教師あり手法で用いるデータセット(表 1) にはそれぞれ,いくつかの評価項目に関する人手評価値が付いている。その評価項目は,タスクに固有のものと,タスク間で共通しているものがある. Yamshchikov と Shibaev [6] は,言い換え生成とスタイル変換強度の 2 つのタスクに共通している意味保存性に関して, 13 種類の自動評価尺度を調査した。
文法誤り訂正における人手評価值付きデータセッ卜を用いた文法性の QE 手法は,Napoles ら [11] が提案している. Yoshimura ら [12] は,文法性だけでなく流暢性や意味保存性の 3 項目の人手評価付きデータセットを作成した. 大量のラベルなしデータを使って事前学習された BERT [13] を用いて,各評価項目について,人手評価に最適化する教師あり学習を行った。
これまでの研究では単一タスクの単一の評価項目についての人手評価値のみを用いているのに対し,本研究では, 複数の評価項目あるいは複数のタスクのデータセットを用いて,人手評価に最適化する教師あり手法を提案する. また,本研究でも事前学習モデルされた BERTを用いる.
機械翻訳タスクも系列変換タスクの一つである.機械翻訳タスクの $\mathrm{QE}$ の場合,原文とシステムの出力文を入力するが,これらは言語が異なる. 本研究では,入力を単一言語(英語)に揃えるため,機械翻訳タスクの人手評価値付きのデータセットは除外した.
## 2.2 マルチタスク学習
Liu ら [14] は, 事前学習モデルとマルチタスク学習を用いる,Multi-Task Deep Neural Network (MT-DNN) を提案し,自然言語理解タスクで実験を行い性能が
向上することを示した. また,ドメイン適応の実験を行い,学習済みの MT-DNN は学習済みの BERT よりも少量のデータで高い性能に達することを示した.
自然言語理解タスクの GLUEベンチマーク [15] は 9つのタスクから成る. そのうち,3つは文対が意味的に等価であるかを判定するタスクであり,4つは自然言語推論タスクである。 Liu らは GLUE ベンチマークについて,タスクの情報を考慮せずすべてのデータを用いて共通のモデルを作成した。一方,本研究では複数の系列変換タスクの $\mathrm{QE}$ について, すべてのデータを用いる手法の他に,タスクまたは評価項目が同じデータのみを用いる手法を提案する。共通点のあるデータを明示的に選択することで,タスク間または評価項目間に共通する特徴に着目しやすくなり精度が向上することが期待できる。
## 3 QE のためのマルチタスク学習
本研究では, $\mathrm{QE}$ のための,複数の評価項目あるいは複数のタスクのデータセットを用いるマルチタスク学習手法として,次の 3 つを提案する。
・単一のタスクの,すべての評価項目のラべルを用いてマルチタスク学習を行う手法 (single-task, multi-aspect: mlt-aspect)
$\cdot$すべてのタスクの,単一の評価項目のラベルのみを用いてマルチタスク学習を行う手法 (multi-task, single-aspect: mlt-task)
・すべてのタスクの,すべての評価項目のラベルを用いてマルチタスク学習を行う手法 (multi-task, multi-aspect: all)
複数のデータセットを用いて学習を行うため,モデルには,マルチタスク学習を行う MT-DNN [14]を用いる. マルチタスク学習にはいくつかの手法があるが,MT-DNN は一般的に用いられている [16] ハー ドパラメータ共有 [17] による手法を採用している. ハードパラメータ共有の場合,モデルは図 1 に示すように,タスク間で共有される層とタスク固有の出
図 1 MT-DNN の概略図.
力層に分けられる。一部の層を共有し,複数のタスクに対して同じパラメータを使うことで,タスク間で共通する特徴に着目することができるようになり,特定のタスクに過学習しにくくなる。
モデルの入力 $X$ は,先頭に入力の先頭を表す特殊トークン,各文の末尾に文の区切りを表す特殊トー クンを追加して,各文を連結した系列である,入力が 1 文の場合も同様である。
$\Theta$ を MT-DNNの学習パラメータ, $\Theta_{\text {shared }} \subset \Theta をタ$ スク間で共有される層の学習パラメータとする,夕スク間で共有される層は文符号化器 $\operatorname{Enc}\left(\cdot ; \Theta_{\text {shared }}\right)$ である. 文符号化器 $\operatorname{Enc}\left(\cdot ; \Theta_{\text {shared }}\right)$ は, 入力 $X$ に対し,文脈埋め込みべクトル $\operatorname{Enc}\left(X ; \Theta_{\text {shared }}\right)$ として, 入力の先頭を表す特殊トークンの文脈埋め込みべクトルを返す、タスク $t$ の出力層は,タスク $t$ の入力 $X_{t}$ の文脈埋め込みべクトル $\operatorname{Enc}\left(X_{t} ; \Theta_{\text {shared }}\right)$ に対し, 評価値 $\operatorname{Score}_{t}\left(X_{t} ; \Theta_{t}\right)^{2)}$ として,タスク固有のパラメータベクトル $\boldsymbol{w}_{t}$ との内積を返す:
$
\operatorname{Score}_{t}\left(X_{t} ; \Theta_{t}\right)=\boldsymbol{w}_{t}^{\mathrm{T}} \cdot \operatorname{Enc}\left(X_{t} ; \Theta_{\text {shared }}\right) .
$
ただし, $\Theta_{t}$ は $\Theta_{\text {shared }} \cup w_{t}$ である.
ミニバッチ確率的勾配法を用いて,単一タスク $t$ のミニバッチ $b_{t}$ ごとにモデルのパラメータ $\Theta_{t}$ を更
2) 簡単のため, $\operatorname{Score}_{t}\left(\operatorname{Enc}\left(X_{t} ; \Theta_{\text {shared }}\right) ; \Theta_{t}\right)$ を $\operatorname{Score}_{t}\left(X_{t} ; \Theta_{t}\right)$ と表記する。
新する.これにより,モデルは各タスクの目的関数の合計におおよそ最適化される. タスク $t$ の目的関数 $L_{t}\left(\Theta_{t}\right)$ は,データセットに付いている人手評価值 $y_{t}$ と, モデルの推定値 $\operatorname{Score}_{t}\left(X_{t} ; \Theta_{t}\right)$ との二乗誤差である:
$
L_{t}\left(\Theta_{t}\right)=\frac{1}{\left|b_{t}\right|} \sum_{\left(X_{t}, y_{t}\right) \in b_{t}}\left(y_{t}-\operatorname{Score}_{t}\left(X_{t} ; \Theta_{t}\right)\right)^{2}
$
あるタスクと評価項目の組を,MT-DNNにおける 1つのタスクとみなし, QE のためのマルチタスク学習を行う. 以下の 2 段階で学習を行い,文または文対から対応する評価項目の評価値を推定する回帰モデルを作成する.
1. 文符号化器 $\operatorname{Enc}\left(\cdot ; \Theta_{\text {shared }}\right)$ を BERT [13] などの事前学習済みモデルで初期化し, 目的関数 $\sum_{t \in T} \sum_{b_{t} \in B_{t}} L_{t}\left(\Theta_{t}\right)$ に従い, 学習を行う.
2. 1 で作成したモデルに対して, 目的関数 $\sum_{b_{t^{\prime}} \in B_{t^{\prime}}} L_{t^{\prime}}\left(\Theta_{t^{\prime}}\right)$ に従い,再学習を行う.
ただし, $T$ は学習に用いるタスクの集合, $B_{t}$ はタスク $t$ のミニバッチの集合, $t^{\prime}$ は目的のタスク(主タスク)である.
## 4 評価実験
## 4.1 実験設定
本実験では, 4 種類の系列変換タスクの,人手評価值が付いているデータセットを用いて,マルチタスク学習による $\mathrm{QE}$ の有効性を検証する. 各データセットの評価項目と, 文または文対の数は表 1 のとおりである。また,評価項目が同じでも,タスクにより評価値の範囲が異なる. 各データセットの詳細は付録 $\mathrm{A}$ を参照. モデルの入力は, 文法誤り訂正のときは文,その他のタスクのときは文対とする。
MT-DNN は,著者らによって公開されている実装3)を用いた. モデルの詳細は付録 $\mathrm{B}$ を参照.
各手法の性能の評価(メタ評価)には,人手評価值とのピアソンの積率相関係数を用いる. 文法誤り訂正の out-of-domain はシステム単位,その他は文単位で評価を行う。
## 4.2 比較手法
初期化済みの MT-DNNに対し,単一のタスク,単一の評価項目のラベルのみを用いて fine-tuningを行うベースライン手法 (single-task, single-aspect: sgl)
と提案手法を比較する。
## 4.3 実験結果
表 2 に各評価項目ごとの実験結果を示す. 言い換え生成の意味保存性とテキスト平易化の平易性を除くすべてのタスクと評価項目の組において, mlt-task または all が最も高い性能を示した. 特に, 訓練デー タのサイズが最も小さいテキスト平易化の文法性または意味保存性に関して,大幅な改善が見られた。 このことは,複数の評価項目あるいは複数のタスクのデータセットを用いるマルチタスク学習が $\mathrm{QE}$ に有用であることを示唆しており,マルチタスク学習が低リソース問題の解決に役立つことがわかる.
大幅な改善が見られたテキスト平易化の out-ofdomain における,人手評価値(human)と各手法による評価値を表 3 に示す. 文法性と意味保存性については,人手評価との相関係数が高い手法ほど,モデルによる評価値と人手評価値との差が小さいことがわかる. 文法性では, mlt-task が human と最も近く, 意味保存性では, mlt-task や all が human と近い. 平易性については,システムの出力をあまり正しく評価できていないことがわかる.
## 5 考察
マルチタスク学習の有効性が確認できたタスクと評価項目の組. テキスト平易化の意味保存性と, スタイル変換の意味保存性およびスタイル変換強度では, all が最も良く, 各タスクの文法性は mlt-task が最も高い性能を示した. これらは, 複数のドメインやデータセットを用いたことによる,学習に利用可能な言語表現の増加が直接,性能の改善に結びついた結果であると考えられる。
文法性に関しては,mlt-aspect は sgl より性能が高いことから,文法性以外の評価項目のデータを用いた場合のマルチタスク学習の有効性は示されている.しかし, all は mlt-taskより性能が低い。これは,言い換え生成のデータセットの訓練データの量が最も多いことを考慮すると, all により意味保存性が支配的になったことが要因の 1 つであると考えられる. その場合, 補助タスクのデータセットの量を調整したり, 補助タスクの損失を小さくしたりする必要があるだろう. スタイル変換強度で all の性能が最も高いという実験結果は, スタイル変換強度も文法ではなく意味を扱う評価項目であることから, all は意味保存性が支配的であるという仮説と整合
表 2 各評価手法の各評価項目の評価值と人手評価との相関係数. 開発データにおけるピアソンの積率相関係数の上位 10 個の平均値.
表 3 テキスト平易化の out-of-domain における各評価項目の人手評価および各手法による評価値. 赤字は原文とシステム出力の差分を示す. 評価値は human / sgl / mlt-aspect / mlt-task / all の順である.
\\
システムの出力 \\
such attempt to tackle the fallout of a property crash fell short of expectations. \\
システムの出力 Spain 's government tried to plug. The fourth such attempt fell short.
文法性 2 / 1.93 / 1.84 / 1.95 / 1.76 意味保存性 1 / 1.90 / 1.52 / 1.42 / 1.38 平易性 $1 / 3.10$ /2.84 / - 3.14
する.
マルチタスク学習の有効性が確認できなかったタスクと評価項目の組. 言い換え生成の意味保存性,テキスト平易化の平易性では,マルチタスク学習の有効性が示せなかった. 言い換え生成の意味保存性については,主タスクの訓練データのサイズが大きく,本実験で用いた補助タスクが悪影響を及ぼした可能性がある. テキスト平易化の平易性については,平易性以外の評価項目の量を増やすと性能が悪化していることから,平易性以外の評価項目のデータを活用することは難しいと言える.
## 6 おわりに
本研究では,系列変換タスクの $\mathrm{QE}$ に取り組み, マルチタスク学習手法を3つ提案した. 4 つのタスクのデータセットを用いた実験の結果,多くのタス
クと評価項目の組について,マルチタスク学習により性能が向上した.特に,訓練データのサイズが小さいテキスト平易化の文法性および意味保存性に関する $\mathrm{QE}$ いいて,大幅に性能が向上した. 一方で, 3つの手法はいずれも,言い換え生成の意味保存性とテキスト平易化の平易性では改善が見られなかった。また,性能が最も良い手法は,評価項目により異なることがわかった.
今後は,提案手法が全体的な改善に至らない要因を分析し,また,内積が負となる勾配を射影する手法 [18] や,入力の先頭にタスクと評価項目を区別する特殊トークンを追加し出力層を一つにする手法 [19] などを行いたいと考えている.
## 参考文献
[1] 嶋中宏希, 梶原智之, 小町守. 事前学習された文の分散表現を用いた機械翻訳の自動評価. 自然言語処理, Vol. 26, No. 3, pp. 613-634, 2019.
[2] Elizaveta Yankovskaya, Andre Tättar, and Mark Fishel. Quality estimation and translation metrics via pre-trained word and sentence embeddings. In Proceedings of WMT, pp. 101-105, 2019.
[3] Michael Heilman, Aoife Cahill, Nitin Madnani, Melissa Lopez, Matthew Mulholland, and Joel Tetreault. Predicting grammaticality on an ordinal scale. In Proceedings of ACL, pp. 174-180, 2014.
[4] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Edward Gillian. Human evaluation of grammatical error correction systems. In Proceedings of EMNLP, pp. 461-470, 2015.
[5] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of SemEval, pp. 1-14, 2017.
[6] Ivan P. Yamshchikov, Viacheslav Shibaev, Nikolay Khlebnikov, and Alexey Tikhonov. Style-transfer and paraphrase: Looking for a sensible semantic similarity metric. arXiv:2004.05001, 2020.
[7] Sanja Štajner, Maja Popović, Horacio Saggion, Lucia Specia, and Mark Fishel. Shared task on quality assessment for text simplification. In Proceeding of QATS, pp. 22-31, 2016.
[8] Goran Glavaš and Sanja Štajner. Event-centered simplification of news stories. In Proceedings of RANLP, pp. 71-78, 2013
[9] Remi Mir, Bjarke Felbo, Nick Obradovich, and Iyad Rahwan. Evaluating style transfer for text. In Proceedings of NAACL, pp. 495-504, 2019.
[10] Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Francisco Guzmán, Mark Fishel, Nikolaos Aletras, Vishrav Chaudhary, and Lucia Specia. Unsupervised quality estimation for neural machine translation. TACL, Vol. 8, pp. 539-555, 2020.
[11] Keisuke Sakaguchi, Courtney Napoles, Matt Post, and Joel Tetreault. Reassessing the goals of grammatical error correction: Fluency instead of grammaticality. TACL, Vol. 4, pp. 169-182, 2016.
[12] Ryoma Yoshimura, Masahiro Kaneko, Tomoyuki Kajiwara, and Mamoru Komachi. SOME: Reference-less submetrics optimized for manual evaluations of grammatical error correction. In Proceedings of COLING, pp. 65166522, 2020.
[13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL, pp. 4171-4186, 2019.
[14] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of ACL, pp. 4487-4496, 2019.
[15] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill,
Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of BlackboxNLP, pp. 353355,2018
[16] Sebastian Ruder. An overview of multi-task learning in deep neural networks. arXiv:1706.05098, 2017.
[17] Rich Caruana. Multitask learning: A knowledge-based source of inductive bias. In Proceedings of ICML, p. 41-48, 1993.
[18] Tianhe Yu, Saurabh Kumar, Abhishek Gupta, Sergey Levine, Karol Hausman, and Chelsea Finn. Gradient surgery for multi-task learning. arXiv:2001.06782, 2020.
[19] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. TACL, Vol. 5, pp. 339-351, 2017.
[20] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proceedings of CoNLL, pp. 1-14, 2014.
[21] Ralf Herbrich, Tom Minka, and Thore Graepel. TrueSkill ${ }^{\mathrm{TM}}$ : A Bayesian skill rating system. In B. Schölkopf, J. C. Platt, and T. Hoffman, editors, NIPS, pp. 569-576. 2007.
## A データセット
文法誤り訂正 in-domain のデータセットは,GUG (“Grammatical” versus “Un-Grammatical” ) データセット [3] である. このデータセットには,学習者が書いた文に対して,文法性の人手評価値(1 から 4 の離散値) が付いている.
out-of-domain のデータセットは,CoNLL 2014 Shared Task [20] のデータセットおよび,それに対して Grundkiewicz et al. (2015) [4] の人手評価を用いた. このデータセットは,入力文 1,312 文と,それに対する 12 システムの訂正結果を含む. Grundkiewicz らは,人手で文ごとに評価した少量のデータを用いてレーティングアルゴリズムである TrueSkill [21]を用いて訂正システム単位の人手評価スコアを算出した. 相関係数は,入力を含む 13 システムごとの評価値の平均値と,Grundkiewicz et al. (2015) の Table 3c の人手評価値を用いて計算した。
言い換え生成 in-domain のデータセットは,STS (Semantic Textual Similarity) ベンチマーク [5] である. このデータセットには,意味保存性の人手評価值(0 から 5 の連続値)が付いている.
out-of-domain のデータセットは,Yamshchikov and Shibaev (2020) [6] である.このデータセットには,意味保存性の人手評価値(1 から 5 の連続値)が付いている.
テキスト平易化 in-domain のデータセットは,QATS (Quality Assessment for Text Simplification) データセッ
ト [7] である.このデータセットには,複数のシステムの出力文に対して,文法性,意味保存性,平易性の人手評価値(bad,ok,good の 3 值)が付いている. 本実験では,bad,ok,good それぞれ 1,2,3として扱った. また,学習用の 505 文対のうち,8 割を学習用,2 割を開発用に利用した. 本実験で学習に用いたデータセットのうち,テキスト平易化のデータセットが最も小さい.
out-of-domain のデータセットは,Glavaš and Štajner (2013) [8] である.このデータセットには,文法性,意味保存性,平易性の人手評価値(1から 3 の離散値)が付いている.
スタイル変換使用したデータセットは,Mir et al. (2019) [9] である。このデータセットには,複数のシステムの出力文に対して,文法性,意味保存性,スタイル変換強度の人手評価值(1 から 5 の連続値)が付いている.スタイル変換強度は,あるスタイルに対する入力文と出力文のスタイルの違いの度合いを示す指標であり,同じスタイルの場合は 1,完全に異なるスタイルの場合は 5 となる. Mir et al. (2019) で考慮するスタイルは感情である. 本実験では,8 割を学習用, 1 割を開発用, 1 割を評価用に利用した.
## B モデル
MT-DNN は,著者らによって公開されている実装4)を用いた.MT-DNN の文符号化器の初期化に使用する事前学習済みモデルは, transformers 2.3.0年)の bert-base-cased を用いた.MT-DNN の各ハイパーパラメー タは,以下の組合せに対してグリッドサーチを行い,開発データにおけるピアソンの積率相関係数が最も大きいモデルを選択した。その他のハイパーパラメータは既定値を用いた。
- 最大トークン数 $\in\{128,256\}$
・バッチサイズ $\in\{8,16\}$
- 学習率 $\epsilon \in\{2 e-5,3 e-5,5 e-5\}$
・エポック数 $\in\{1, \ldots, 20\}$
| NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-14.pdf | # キャプション生成時低品質データ事前検知の試み
大畑和也 ${ }^{\dagger}$ 長澤駿太 $\ddagger$ 北田俊輔 $\ddagger$ 彌冨仁
$\dagger$ 法政大学 理工学部 応用情報工学科
†法政大学 大学院 理工学研究科応用情報工学専攻
\{kazuya.ohata.2b@stu., iyatomi@\}hosei.ac.jp
\{shunta.nagasawa.2u, shunsuke.kitada.8y\}@stu.hosei.ac.jp
## 概要
視覚障がい者支援は画像キャプション生成タスクの効果的な応用の 1 つである。しかしながら、従来研究の多くは一般物体認識用途の対象物が明瞭に写っている高画質の画像データを学習に用いており、実用的な研究は発展途上である。近年、視覚障がい者支援を目的とし、障がい者自身の撮影による VizWiz Image Caption Dataset が発表されたが、ブレや見切れなどにより適切なキャプション生成が困難な画像が少なくない。被支援者は利用時に生成キャプションの妥当性が判断できないため、不適切なキャプションは大変不都合となる。我々は、適切なキャプション生成が困難な画像に対し利用者に再度撮影を促すことが実用上重要と考え、事前検知の可能性について検証した。本稿では、最先端のキャプション生成手法である AoANet が適切なキャプションを生成できない画像の事前検出を試みた。最先端手法を含む様々な深層学習モデルによる検証を行ったが、現時点ではこうした画像の事前検出は画像のみでは容易でないことが分かった。
## 1 はじめに
画像キャプション生成は、モデルに画像内の物体の関係性を学習させ、人間が理解可能な自然言語の形で出力するタスクであり、テキストベースの画像検索や、視覚障がいを持つ人への支援など幅広い応用が考えられる。近年では深層学習を元にした画像キャプション生成の研究が盛んに取り組まれており、Vinyals ら [1]が提唱した convolutional neural network (CNN) と long short-term memory (LSTM) [2] を使用したモデルが優れた性能を示し、類似する手法が多く用いられてきた。最近では注意機構を利用したモデルが成功を収めており、 Huang ら [3] は注意機構の着目箇所が適切かを測ることでより有用な情報を得る Attention on attention network (AoANet) モデルを提案した。AoANet は、一般物体検出や認識タスクの他、画像キャプション生成研究によく利用されている MSCOCO データセット [4]を元にしたキャプション生成において他の多くのモデルを上回る最先端の成果を実現している。MSCOCO データセットは、物体や人間の行動が画像中に大きく映っている上、光源等の撮影環境も適切な画像で構成されており、一般物体検出・認識タスクの他、画像キャプション生成の研究によく利用されている。
画像キャプション生成の視覚障がい者支援の応用として、深層学習を元にした歩道上での安全ナビゲーションシステムの構築が提案されている [5]。 このシステムでは解析対象の画像が、影などの光源の影響や回転している場合に性能が著しく低下することが報告されており、それら撮影状況を考慮したデータセットの利用などが必要である。
視覚障がい者支援の実応用を見据えた深層学習モデルの学習のために、VizWiz データセット [6] が公開されている。これは視覚障がい者が撮影した画像をもとにキャプションがアノテーションされており、実際に近い環境の画像群が得られるが、画像中のブレやボケといった必ずしも画像の品質が良いとは言えないデータが含まれている。こうした品質の優れない画像から適切なキャプションを生成することは一般的に難しく、また、視覚障がい者ナビゲー ションシステムのような応用例では、誤った推論が事故に繋がる恐れがある。
本研究では視覚障がい者の支援を目的に、解析対象画像が、キャプション生成に適しているかを画像識別により事前判断できるかについて検証する。不適切画像と事前に判断できれば、システム利用者に画像の再取得を促せるため実用上大変有意義である。本研究では最先端の性能を記録している画像キャプションモデル AoANet [3]を利用し、まず一般
(a) $\mathrm{MSCOCO}$
(b) VizWiz図 1: MSCOCO と VizWiz の違い
的な画像キャプションモデルの学習に用いられている MSCOCO データセットと、実世界の障がい者支援を目的とした VizWiz データセットの差について、比較および議論する。その後、画像のみからの高精度なキャプション生成の可否の予測について、近年高いスコアを記録している複数の先端的な画像認識モデルを用いて検証する。
## 2 MSCOCO と VizWiz データセット
本検証ではまず最先端のキャプション手法の 1 つである AoANet [3] を用い、画像キャプションモデルの学習に広く用いられている MSCOCO [4] デー タセットと実世界の障がい者支援を目的とした VizWiz [6] データセットについて、キャプション生成の難易度の差の観点から比較した。
## 2.1 データセットの比較
図 1 に MSCOCO と VizWiz の画像の違いを示す。
MSCOCO MSCOCO [4] は Flickr 上の画像から複数の物体がはっきりと写った画像から構成されるデータセットである。 MSCOCO には一枚の画像に 1 から 5 つ程度のキャプションが付随し、 MSCOCO2014 では学習用に 82,783 枚、検証用に 40,504 枚の画像が含まれている。
VizWiz VizWiz [6] は2 2 示すように画像に欠陥がないものの他にはボケ、見切れ、明暗の差が激しい、対象が不明膫、回転のような特徴を持つ画像が含まれており、上記の MSCOCO と比べタスクの難易度が高いとされるデータセットである。VizWiz においても MSCOCO と同様に 1 枚の画像に複数キャプションが付随しており、学習用に 23,431 枚、検証用に 7,750 枚の画像が含まれている。
図 2: VizWiz データセットの低品質画像の例
図 3: MSCOCO [4] と VizWiz [6] 検証データの CIDEr スコア分布
## 2.2 キャプション生成性能の比較
AoANet は、注意機構により抽出した画像中の重要な領域の情報を元に、良好なキャプションを生成可能な技術である。図 3でこのモデルの推論により得られた文章を、画像キャプション生成の評価指標である CIDEr スコア [7]を用いて評価し、VizWiz および MSCOCO データセットによる分布の違いを比較した。
VizWiz (平均 CIDEr スコア 53.6) ではスコアの低いキャプションが生成される割合が MSCOCO (平均 CIDEr スコア 127.2) と比較して高かった。図 4 に低スコアとなる画像とキャプションの例を示す。カレンダーを PC のモニターと推論するといった見当違いの結果を予測している、0から10にかけてのスコアを記録するものの割合が最も多くなった。
## 3 キャプション不適画像の事前検出
本研究は視覚障がい者支援のため、VizWizデータセットで学習した AoANetが生成するキャプションの妥当性を画像のみから予測可能かを検証する。本枠組みの全体像を図 5 に示す。具体的には、近年優
図 4: 低スコアとなる画像と正解キャプション、推論キャプションの例
図 5: 提案するキャプション生成時低品質データ事前検出システムの全体像
れた画像認識能が報告されている複数の深層学習モデルを利用し、AoANetが生成するキャプションの CIDEr スコアが低い画像つまりキャプション不適画像を検出することを目的とする。
不適画像の推定に用いた画像認識モデルは以下の 6 種類及び、比較のためにランダム推定を用いた。
1. ImageNet [8] 事前学習済みの ResNeXt50 [9]
2. Instagram 事前学習済み ResNeXt101 [10]
3. ImageNet $21 k$ 事前学習済み ResNet50
4. ImageNet21k 事前学習済み ResNet50 (高解像度版)
5. ImageNet21k 事前学習済み VisionTransformer (ViT) base [11]
6. ImageNet21k 事前学習済み VisionTransformer (ViT) large [11]
7. ランダムに検出対象ラベルとする推定
## 4 実験
## 4.1 実験詳細
評価用データセットキャプション不適画像を判断する深層学習モデルを学習させるために、VizWiz の検証用データセット (7,750 枚) に対して AoANet が推定したキャプションの CIDEr スコアに基づき、高スコアクラス (high score 群) と低スコアクラス (low score 群) のラベルを生成した。これらの生成結果に対して、学習用: 検証用 $=8: 2$ に分割した。
前処理とデータ拡張前処理として画像を事前学習済みモデルの入力サイズと一致するようにリサイズした。その後 ImageNet の RGB の平均值と標準偏差を用いて画像の正規化を施した。データ拡張としてランダムに画像を左右反転させる水平反転、および画像を $-30^{\circ} \sim 30^{\circ}$ の間で回転させた。
学習と評価学習時には、誤差関数には交差エントロピー誤差を利用し、学習回数は 100 エポックとした。評価指標には、precision、recall、F1を用いた。
## 4.2 モデル比較による実験
本実験では、図 3 のスコア分布より、CIDEr スコアが下位約 $35 \%$ を占める 20 以下の画像を対象とし、低品質クラスとしてそれらの検出を試みた。表 1 に低スコアクラス画像の検出能結果を示す。今回の実験では ResNeXt50 が一番高い結果を示したが、最先端のViT モデルを含めいずれのモデルも適切な検出が行えていない結果となった。なお、モデルの特性の違いを明らかにするために結果は precision, recall のバランス調整のための閾値調整などは行わず、モデルの出力そのままに基づく結果を記載した。また ViT large 以外のモデルにおいて、学習データに対しては推定精度が十分に高いが、検証データの場合に大幅に下がってしまう過学習が見られた。
## 5 考察
本実験においては、先端的な画像識別手法を使用してもキャプション生成が難しい低スコア画像の検出能は低く、単純なランダム推定と同様かそれ以下の結果しか得られなかった。入力される画像が光源の影響を強く受けていたり、ボケていたりする場合などの根本的な悪条件画像の場合、適切なキャプション生成は望めず、CIDEr スコアは大幅に低下する傾向にある。本実験ではこうした画像の検出が期待されたが、実験結果に掲載していない、より浅いネットワークも含めて成果は得られなかった。その
表 1: 異なるモデルを用いた入力画像に対する品質判断結果の比較
$\dagger$ 期待値
理由として光源やボケの影響で本来認識すべき物体を別のものと認識してしまったことが原因として挙げられる。また、物体が見切れている画像では全体が写っていないために正しく認識できなかったと考えられる。
## 6 結論
本稿では VizWiz Image Caption Dataset を用い推論時に低スコアとなってしまう入力画像事前検出の提案と調査を行なった。様々な先端モデルの適用やデータ拡張手法を適用したが、本実験の範囲においては、効果的な結果は得られなかった。学習時に多くのモデルにおいて過学習が確認されたため、より多くの学習画像の導入を検討するとともに今後も有効なデータ拡張の手法を探すなど、検出精度を高くする研究を続けていきたい。
## 参考文献
[1] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In Proc. of the IEEE conference on computer vision and pattern recognition, pp. 31563164, 2015.
[2] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997.
[3] Lun Huang, Wenmin Wang, Jie Chen, and XiaoYong Wei. Attention on attention for image captioning. In Proc. of the IEEE International Conference on Computer Vision, pp. 4634-4643, 2019.
[4] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr
Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In Proc. of the European conference on computer vision, pp. 740-755. Springer, 2014.
[5] Faruk Ahmed, Md Sultan Mahmud, Rakib AlFahad, Shahinur Alam, and Mohammed Yeasin. Image captioning for ambient awareness on a sidewalk. In 2018 1st International Conference on Data Intelligence and Security (ICDIS), pp. 85-91. IEEE, 2018.
[6] Danna Gurari, Yinan Zhao, Meng Zhang, and Nilavra Bhattacharya. Captioning images taken by people who are blind. In Proc. of the European conference on computer vision, pp. 417-434. Springer, 2020.
[7] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proc. of the IEEE conference on computer vision and pattern recognition, pp. 4566-4575, 2015.
[8] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai $\mathrm{Li}$, and $\mathrm{Li}$ Fei-Fei. Imagenet: A large-scale hierarchical image database. In Proc. of the IEEE conference on computer vision and pattern recognition, pp. 248-255. Ieee, 2009.
[9] Saining Xie, Ross Girshick, Piotr Dollár, Zhuowen Tu, and Kaiming He. Aggregated residual transformations for deep neural networks. In Proc. of the IEEE conference on computer vision and pattern recognition, pp. 1492-1500, 2017.
[10] Dhruv Mahajan, Ross Girshick, Vignesh Ramanathan, Kaiming He, Manohar Paluri, Yixuan Li, Ashwin Bharambe, and Laurens van der Maaten. Exploring the limits of weakly supervised pretraining. In Proc. of the European Conference on Computer Vision (ECCV), pp. 181-196, 2018.
[11] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, et al. An image is worth $16 \times 16$ words: Transformers for image recognition at scale. CoRR preprint arXiv:2010.11929, 2020. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-15.pdf | # Langsmith: 人とシステムの協働による論文執筆
伊藤拓海 ${ }^{*, 1,2}$ 栗林樹生 ${ }^{*, 1,2}$ 日高雅俊 $*, 3$ 鈴木潤 1,4 乾健太郎 1,4
1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ Edge Intelligence Systems ${ }^{4}$ 理化学研究所
\{t-ito, kuribayashi, jun.suzuki, inui\}@ecei.tohoku.ac.jp
hidaka@edgeintelligence.jp
## 1 はじめに
自然言語処理の有望な応用先として,エッセイや物語,論文などの作成支援技術が盛んに研究されている $[1,2,3]$. 近年特に,効率的な支援の実現のため,人とシステムがインタラクションを取りながら協働的に言語活動を行う枠組みに期待が集まっている $[4,5,6,7,8]$. 本研究では,表現が十分に練られていない草稿を人がシステムと協働的に推敲するという場面に焦点を当てる.
そもそも推敲とは,(人の頭の中にある)書きたい内容と現在書いている文章を比較し, 内容をわかりやすく,正確に伝えるために文章を練ることである. 推敲は語彙や文法, 修辞法などに対する深い知識が必要であり,人(特に未熟な書き手)にとって負荷の高い作業である。一方システムは大規模コー パスから適切な表現や文章のパターンを獲得することでき,表現に関する支援が期待できる. しかしながら, システムが草稿から人の書きたい内容を推測するのは困難であり,システムが自動で推敲を行うのは現実的でない. 推敲支援には,人がシステムに書きたい内容を伝え,それに対してシステムが適切な表現をフィードバックするというインタラクションが重要であり,インタフェースの設計が鍵となる (図 1 ).
既存研究 $[4,5]$ では,「ここに単語を挿入して欲しい」や「この表現を書き換えて欲しい」といった指示を考慮して書き換えを行う生成モデルの開発がされている.しかしこれらの研究は, 人をシミュレー 卜した環境で,指示に従った生成ができるかどうかというモデルの性能に関する評価しか行っておらず,人とシステムの協働的執筆が文章の質の向上に繋がるのか,どういったインタラクションの取り方が効率的なのかといった人を系に入れた議論が不足している.
* 三者の貢献は同等である.
図 1 人とシステムによる協働的推敲の概要.
本研究では,自然言語処理分野の英語論文執筆支援を想定し,既存研究 $[4,5]$ の成果をもとに,人とシステムが協働で文章を書く場として Langsmith エディタ1)を作成した. 英語を母語としない学生に利用してもらい,人とシステムの協働的な推敲に関する事例研究を行った. 実験結果から,システムとの協働的推敲によって文章の質の向上が確認された. また,ユーザ調査により実用的なインタフェースに関する知見が得られた。
## 2 関連研究
文法誤りの訂正や言い換え表現の提案を行う執筆支援システムとして, ( Grammarly ${ }^{2)}$ や Beewriter ${ }^{3}$ が挙げられる。これらのツールはシステムが一方的にエラーを検知するいわば校正型であるのに対し, Langsmith エディタでは利用者がシステムの編集を制御できるなどシステムとの協働を重視しており,協力して文章を書いていく執筆初期段階の支援を目指している点で Langsmith エディタはこれらのツー ルと異なる.
## Better Models for Grammatical Error Correction
図 2 Langsmithエディタのスクリーンショット.
## 3 Langsmit エディタ
## 3.1 協働による書き換え
人が与えた文に対してシステムが論文に適した流暢な文を提案する機能を実現する(図 2).
人による制御可能性: 人とシステムの協働の効率化のため,利用者が書き換えを制御できるよう 2 つの手段を提供する. 1 つ目は,重点的に書き換えて欲しい箇所の選択機能(編集箇所指定)である. 利用者は自分が書いた文について「この表現が不自然」といった箇所を自覚している可能性があり,そこを修正すべきか,またどう修正すべきかについてフィードバックが得られれば満足する場合が想定される. 図 3 に示すように,本システムでは利用者がカーソルで選択した箇所に対して集中的に編集を加える機能を実現した.
2 つ目は,表現を挿入してほしい位置の指定機能 (挿入箇所指定)である. 文脈付き索引のように,文脈に応じた自然な表現を探す時に役立つと考えられる. 利用者は文中の特定の位置に特殊記号 “()”を挿入でき,システムは特殊記号を適切な表現に置き換えて文を書き換える(図 2)。
システムによる多様な提案: 流暢さやスタイルに関わる修正では適切な推敲結果が一意に絞り込めない場合があるため,複数の書き換え候補を提供する設計とした (図 2). 推論時の生成確率の上位数件を提示した場合非常に似たような候補が複数提示される傾向が観察されたため,推論結果に多様さを促している [9].
モデルの実装: Ito ら [5] と同様に疑似学習データを用いて Encoder-Decoder 型系列変換モデル [10] を訓練した. また編集箇所指定を実現するため,入力文
1 This formulation of the input and output promotes human-computer The design of the input and output promotes humancomputer interaction.
Such a formulation of the input and output promotes human-computer interaction. It supports the formulation of the input and output promotes human-computer interaction. The formulation of both the input and output promotes human-computer interaction.
(a) This formulation … output. に焦点を当てた書き換え.
1 This formulation of the input and output promotes human-computer This formulation of the input and output supports humancomputer interaction.
This design formulation of the input and output supports human-computer interaction.
This formulation of the input and output supports humancomputer interaction. The system This formulation of the input and output encourages human-computer interaction.
(b) promote. に焦点を当てた書き換え。
1 This formulation of the input and output promotes human-computer interaction.
Such a formulation of the input and output promotes the interaction between humans and computers.
This formula promotes the interaction of input and output in a human-computer interaction.
This formulation of the input and output promotes the interaction between human and computer.
(c) human-computer interaction. に焦点を当てた書き換え。
図 3 書き換え機能. カーソル選択した箇所が中心的に書き換えられる。
中のスパンのうち参照文と比較して多くの編集が含まれるものに特殊記号をつけて,編集箇所のヒントを与える形でモデルを学習した(付録 A). システムは印がある箇所を重点的に編集するように学習され (5.1 節),エディタ上では利用者が印の位置を指
定することで編集箇所の指示が可能になっている.
エディタ上での実装: エディタ上では,執筆者が文章の一部を範囲選択した際に書き換え機能が起動する. モデルへの入力について,ユーザがカーソル選択をした箇所に特殊記号が付与されることで編集箇所指定が実現される. システムによって提案された候補は,各候補の違いを区別しやすくするため,入力文と比較して追加されたトークンは青く, 削除されたトークンが存在した箇所は赤く強調表示される。
## 3.2 その他の機能
補完機能: 文章中の適当な箇所から, 続く文章を補完することができる. 文章内の先行文脈と共に論文タイトルやセクションを考慮することができる. エディタ上では,利用者が Tabキーを押すと補完機能が実行される. ACL Anthology から収集した論文データでチューニングしたニューラル言語モデル [11]を使用している。詳細は付録 B に記載する。誤り訂正機能: オープンソースの文法・経り誤り訂正ツールである LanguageTool ${ }^{4}$ を使用した. エディタ上では検出された誤りが下線で強調表示される。
## 4 実験
人とシステムの協働を見据えて実装したエディタが,想定利用者に対して有用であるかを調査する。
## 4.1 評価用データの作成
実際に論文執筆中の研究者を集めシステムの有効性を検証することは困難であるため,研究者が論文執筆の途中であるという状況を再現して実験を行う. 執筆中の原稿として言語処理学会論文誌 LaTeX コーパス中の 8 つの日本語抄録を機械翻訳システム5)で英訳した文章(以降草稿と呼ぶ)を用い,草稿の推敲を英語を母語としない研究者に依頼する. また,翻訳業者() が英訳した抄録を参照訳とした。論文執筆者として自然言語処理の研究を行う 16 名の学部生と修士課程の学生に推敲作業を依頼した。
## 4.2 実験設定
本エディタ上で実現される人とシステムの協働の有効性を調査するため, (i) 本エディタが提供する書
4) https://github.com/languagetool-org/languagetool/ releases/tag/v3.2
5) https://translate.google.com/
6) https://www.ulatus.com/表 1
き換え・補完機能を使わずに推敲を行う場合7)(人のみ),(ii) 推敲に人が介入せず,入力に対して自動的に書き換え機能を適用した場合(システムのみ), (iii) 人がエディタの機能を活用して推敲した場合 (協働)の 3 つの条件を比較する.システムのみの設定では,入力の各文に対して編集箇所指定を行わずに書き換え機能を適用し,もっとも生成確率の高い書き換え結果を採用した。
参加者には 2 つの草稿をそれぞれ人のみと協働設定で推敲してもらった. 参加者の半数が最初に人のみの設定で原稿を推敲し, その後協働設定で別の原稿を推敲した. 残りの半分の参加者は逆の順序で同じ作業を行った.制限時間は設けず,参加者には草稿とともにオリジナルの日本語抄録を提示した. 完成した文章と参照訳を BLEURT [12] で比較した ${ }^{8)}$. なお,BLEURTが出力する値については $[0,1]$ といった值域が設定されておらず,参照訳と近いと値が大きくなる.またべースラインとして草稿(編集なし)についても参照訳との BLEURTを計算した.
## 4.3 結果
表 1 に結果を示す. 協働の設定で書いた文章の方が,人のみおよびシステムのみで書いたものよりも有意にスコアが高く9),本エディタにおける人とシステムの協働のための機能について,有用性が示唆された. また付録 $\mathrm{C}$ に,各設定で推敲された文章の統計を記載する。
## 5 分析
## 5.1 編集箇所指定機能の挙動
まず最初に 3.1 節で紹介した編集箇所指定機能 (図 3)について実装の妥当性を検証する。具体的には,編集箇所として指定した範囲において,範囲指定されていない箇所と比べて頻繁に編集が行われて
7) 通常の執筆環境を想定し誤り訂正機能は使えるものとした.
8)BLEURT は文の比較に用いられる。完成した文章と参照訳について予め文に分割し,BLEURT の値が最も大きくなる文を組とみなして各文の BLEURT を計算した(付録 D).
9)ブートストラップ法による仮説検定 [13] $(p<0.05)$
表 2 質問 1-6 に対するユーザー調査の結果. 各值はその選択肢を選んだ参加者の割合を示す.
& & & \\
表 3 各機能が執筆に役立ったかのアンケート結果.
いることを確認する.
$T$ 個のトークンからなる文 $\boldsymbol{x}=\left(w_{1}, \cdots, w_{T}\right)$ について特定の範囲 $s=(i, j) \quad(1 \leq i<j \leq T, 1 \leq j-i \leq 5)$ を無作為に決め, $w_{i}$ の前と $w_{j}$ の後に編集範囲の開始と終了を示す特殊記号を挿入する.記号が挿入された文を $\boldsymbol{x}^{\text {edit }}$ とする。 $\boldsymbol{x}^{\text {edit }}$ に対して書き換え機能を適用し出力の生成確率上位 10 文 $\left(\boldsymbol{y}_{1}^{\text {edit }}, \cdots, \boldsymbol{y}_{10}^{\text {edit }}\right)$ を得て,以下のスコアを算出する:
$
r=\left|\left.\{\boldsymbol{y}_{k}^{\text {edit }} \mid \boldsymbol{x}_{i: j} \in \operatorname{ngram}\left(\boldsymbol{y}_{k}^{\text {edit }}\right), 1 \leq k \leq 10\right.\}\right|
$
ここで $\boldsymbol{x}_{i: j}$ は編集範囲として指定された $\boldsymbol{x}$ の部分列 $\left(w_{i}, \cdots, w_{j}\right)$ である. また関数 $\operatorname{ngram}(\cdot)$ は与えられた系列のすべての n-gram の集合を返す関数である。 $r$ は 10 個の出力のうち言い換えられていないものの数を示し,r が小さいほど指定範囲で書き換えが生じているとみなした. 特殊記号を挿入せずに書き換え機能を適用した出力上位 10 文についても同様に上記のスコア $r^{\prime}$ を計算し $r$ と $r^{\prime}$ を比較する. $r^{\prime}$ は範囲指定しない場合に上位 10 出力に置いてその範囲が偶然書き換わる回数である.
草稿からランダムに収集した 1,000 文を用い, $r$ と $r^{\prime}$ の大小を比較する試行を 1000 回行った. 結果は $r<r^{\prime}$ が 340 回, $r=r^{\prime}$ が 555 回, $r>r^{\prime}$ が 105 回となった. $r^{\prime}$ より $r$ が小さくなることが有意に高頻度に起きた ${ }^{10)}$ ことから本アプローチによって書き換え箇所の制御が行えているとみなした.
## 5.2 ユーザ調査
4.2 節の実験後, 参加者に以下の項目についてアンケート調査を行った.
1. 協働の設定の方が執筆作業が快適.
2. 協働の設定の方が良い文章が作成できた.
3. 編集箇所指定機能が役立った.
4. 挿入箇所指定機能が役立った.
5. 書き換え機能で候補が複数提示されると役立った。
6. 補完機能で候補が複数提示されると役立った.
表 2 に結果を示す. 1 と 2 に対する回答から本エディタ上での協働の有効性が示唆された. 4 に対する回答より,挿入箇所指定機能については比較的利用者が恩恵を受けていないことが示唆された. 複数の多様な候補を提示することについては「どれを選べばよいか分からない」といった利用者の負荷も懸念されていたが,5,6に対する回答結果から利用者の印象は良かった.
また本エディタの各機能について,執筆で役立ったかを回答してもらった(表 3).書き換え機能が最も役に立ったという評価を得ており,逆に言語モデルによる補完は比較的役立ったという回答が少なかった. 少なくとも本実験や実際の論文執筆では何を書くかという内容は決まっており,言語モデルによる内容レベルの補完は役立つ場面が少ないことが示唆される。
## 6 おわりに
英語論文執筆支援システム Langsmith エディタを開発した. 実験では. 英語非母語話者が英語論文を推敲する際に本システムが有用であるかを検証した. 16 名の被験者実験により本システムの有効性が示唆された.ただし,本稿の実験は参加者が限定的で草稿も擬似的なものであるため,実情を把握するためにはより大規模な実証実験が求められる. また,より効率的な支援システムの構築のため,人とシステムの円滑なインタラクションの方法を模索していく必要がある.
現在, 医学・化学など様々な分野に特化したシステムも公開中であり,今後さらにモデルや機能を開発・追加していく. 本エディタが学術界の言語的障壁の解決に寄与することを期待する.
## 謝辞
本研究は JSPS 科研費 JP19H04425,JP20J22697 の助成を受けたものである.
## 参考文献
[1] Robert Dale and Adam Kilgarriff. Helping our own: The HOO 2011 pilot shared task. In Proceedings of the 13th European Workshop on Natural Language Generation (ENLG 2011), pp. 242-249, 2011.
[2] Chung-Ting Tsai, Jhih-Jie Chen, Ching-Yu Yang, and Jason S. Chang. LinggleWrite: a coaching system for essay writing. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations (ACL 2020), pp. 127-133, 2020.
[3] Seid Muhie Yimam, Gopalakrishnan Venkatesh, John Lee, and Chris Biemann. Automatic compilation of resources for academic writing and evaluating with informal word identification and paraphrasing system. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 5896-5904, 2020.
[4] David Grangier and Michael Auli. QuickEdit: Editing text $\&$ translations by crossing words out. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2018), pp. 272-282, 2018.
[5] Takumi Ito, Tatsuki Kuribayashi, Hayato Kobayashi, Ana Brassard, Masato Hagiwara, Jun Suzuki, and Kentaro Inui. Diamonds in the rough: Generating fluent sentences from early-stage drafts for academic writing assistance. In Proceedings of the 12th International Conference on Natural Language Generation (INLG 2019), pp. 40-53, 2019.
[6] Qian Wang, Jiajun Zhang, Lemao Liu, Guoping Huang, and Chengqing Zong. Touch editing: A flexible one-time interaction approach for translation. In Proceedings of the 1 st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing (AACL 2020), pp. 1-11, December 2020.
[7] Faeze Brahman, Alexandru Petrusca, and Snigdha Chaturvedi. Cue me in: Content-inducing approaches to interactive story generation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing (AACL 2020), pp. 588-597, December 2020.
[8] Seraphina Goldfarb-Tarrant, Haining Feng, and Nanyun Peng. Plan, write, and revise: an interactive system for open-domain story generation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2019) : Demonstrations, pp. 89-97, June 2019.
[9] Ashwin K. Vijayakumar, Michael Cogswell, Ramprasaath R. Selvaraju, Qing Sun, Stefan Lee, David J. Crandall, and Dhruv Batra. Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence (AAAI 2018), pp. 7371-7379, 2018.
[10] Felix Wu, Angela Fan, Alexei Baevski, Yann Dauphin, and Michael Auli. Pay Less Attention with Lightweight and Dynamic Convolutions. In Proceedings of the 7th International Conference on Learning Representations (ICLR
2019), 2019
[11] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. 2019.
[12] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020), pp. 78817892, 2020.
[13] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP 2004), pp. 388-395, July 2004.
[14] Takumi Ito, Tatsuki Kuribayashi, Masatoshi Hidaka, Jun Suzuki, and Kentaro Inui. Langsmith: An interactive academic text revision system. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP 2020): System Demonstrations, pp. 216-226, Online, October 2020.
[15] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The Curious Case of Neural Text Degeneration. In Proceedings of the 8th International Conference on Learning Representations (ICLR 2020), 2020.
## A 書き換え機能の詳細
Ito ら [5] と同様に疑似学習データを用いて書き換えモデルを学習した. 具体的には,(i) 乱択削除モデル,(ii) 文法誤り付与モデル,(iii) 文体変換モデル,(iv) 含意文生成モデルの 4 種類の生成モデルを用いて,ACL Anthology Sentence Corpus ${ }^{11)} にノイ$ ズを加え疑似的な草稿を作成した. なお、Langsmith エディタでは誤り訂正機能が書き換え機能とは別に実装されているため,文法誤り付与モデルで生成されたデータは使用していない,乱択削除モデルはランダムに単語を削除したり,入れ替えたり,単語を “()”に置き換えたりするモデルである。この乱択削除モデルによる疑似的な草稿により,挿入箇所指定に実現した。編集箇所指定を実現するため,文体変換モデルで作成した草稿文と参照文を比較し,編集が必要な箇所を編集記号(<??>)で囲んだ。具体的には,参照文になく,草稿文にある表現に編集記号を挿入した. なお,草稿文と参照文に複数の編集箇所がある場合は,最長の編集箇所に編集記号を挿入する.より詳細な編集記号挿入アルゴリズムは文献 [14] の付録 Aを参照されたし.
また. 利用者に呈示される書き換え候補はニュー ラル言語モデルの生成確率によって, リランキングされている.ここで用いている言語モデルは補完機能で用いている言語モデルと同一である.
## B 補完機能の詳細
モデルには,事前訓練されたニューラル言語モデル GPT-2 small(117M)を言語処理分野の論文でチューニングした.チューニング用のデータは, 2019 年までに ACL Anthology に掲載された 234,830 件の論文を使用した.学習のパラメータについては文献 [14] の付録 B を参照されたし。また,補完機能でもサンプリング [15]を用いて,複数の候補を呈示している (図 4).
## C 4 節の評価用データと推敲後の文章の統計量
表 4 に 4 節で作成した評価用データと各実験設定で書かれた文章の統計情報を示す. 各値は平均値で,“さ”に続く値は標準偏差を表している。
## Better Models for Grammatical Er
図 4 補完機能. これらの提案は, 左のコンテキストとセクション名,論文タイトルによって条件づけられている。
表 44 節で作成した評価用データと各実験設定書かれた文章の統計量.
## D 4 節の評価方法
WMT Metrics ratings data でチューニングされた BLEURT-Base を用いた. ${ }^{12)}$ BLEURT は文ぺアの類似度を評価する指標である.節 4 の実験では,実験参加者に抄録全体の推敲を依頼しており,文数や構成が参照訳と必ずしも一致しない. 推敲後の文章と参照訳について文分割し,BLEURT の値が最も大きくなる文を組とみなして各文の BLEURT を計算した.なお,文分割には $\mathrm{spaCy}^{13)}$ を用いた。
| NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-16.pdf | # 文末からのトップダウン係り受け解析との同時実行に基づく 日本語文の語順整序と読点挿入
宮地航太 $\dagger 1 \quad$ 大野 誠寛 $\dagger 2 \quad$ 松原 茂樹 $\dagger 1$
$\dagger 1$ 名古屋大学 $\dagger^{2}$ 東京電機大学
miyachi.kota@j.mbox.nagoya-u.ac.jp
## 1 まえがき
日本語は,語順が比較的自由であるとされているが,実際には語順に関して選好が存在している。そのため,文法的には間違っていないものの読みにくい語順を持った文が作成されることがある.また読点についても同様に,読みやすい文を作成するためには適切な位置に読点を打つ必要がある. 例えば,以下の文 1 は読みにくいが,文 2 のように文節を並べ替え,読点を挿入すれば読みやすくなる [1].
文 1 私は家を都会に憧れ出た。
文 2 私は, 都会に憧れ家を出た。
語順整序や読点挿入に関する研究は,推敲支援や文生成などに応用でき,いくつか行われている [2-15]. その中でも, 語順や読点と係り受けとの相互依存的な関係に着目し, 係り受け解析と語順整序や読点挿入を同時実行する手法が存在する. 大野ら [16] は係り受け解析と語順整序の同時実行を実現している。ただし,大野らの手法では読点挿入を対象としていない。これに対し, 宮地ら [17] は, Shift-Reduce アルゴリズムを拡張することにより,係り受け解析と語順整序に読点挿入を加えた 3 つの処理を同時実行する手法を提案している。しかし,宮地らの手法では文頭から局所的に解析を行っているため, 2 文節の語順を決定する際に各文節の係り先の情報をほとんど用いることが出来ておらず,その精度は十分とはいえない.
そこで本論文では,推敲支援のための要素技術として,読みにくい語順をもった日本語文に対して,文末からトップダウンに, 係り受け構造と語順, 読点位置を同時的に決定する手法を提案する. 本手法では,係り受け解析と語順整序,読点挿入を同時実行する対象を入力文の文末から各文節までの部分文節列とすることにより, 語順の判断材料として各文節の係り先の情報を利用できるようにする.これ
は,読みにくい入力文であっても非文でなければ,係り受けの後方修飾性を満たすことから, 各文節の係り先がその対象部分文節列内に存在するためである。また,本手法は,各部分文節列に対する係り受け構造と語順, 読点位置を 2 分木で表現することにより,そのあらゆる組合せを簡潔に探索する。
## 2 先行研究
係り受け解析は一般に, 入力文の語順や読点が適切でない場合,精度が低下する $[3,16,18]$. 一方,読みやすい語順や読点とするために最初に語順整序や読点挿入をそれぞれ単独で実行すると,係り受け情報が利用できず,それらの精度は低下すると考えられる。また, 語順が変われば, 適切な読点位置も変わる [3]. このように係り受けと語順, 読点位置は互いに依存しているといえる.従って,入力文の語順と読点を読みやすく整形するという問題に対するアプローチとしては,係り受け解析,語順整序,読点挿入を同時実行する手法が有望である.
この考えに基づき,宮地ら [17] はこれら 3 つの処理の同時実行手法を提案している.この手法は, Shift-Reduce アルゴリズムを拡張し,入力文中の局所的な 2 文節に着目して, それらの間の係り受け関係の有無や語順,読点有無を同時的に決めることを文頭から繰り返す。一般に語順整序は, 係り受け構造が付与されていることを前提に,係り受けの非交差性と後方修飾性を保つため, 同じ係り先を持つ文節同士において行われ,その係り先の情報を利用する [2]. しかし宮地らの手法では,文頭から解析を進め, 対象となる 2 文節の間で考えられる係り受け関係有無, 語順, 読点有無の組合せのみを候補として検討するため,それらの係り先が同じである否かを考慮しない。そのため語順整序の性能が損なわれていると考えられる。
そこで本研究では, 文末からのトップダウン係り
受け解析を拡張し, 文末から各文節までの部分文節列に対して係り受け構造, 語順, 読点位置の 3 項組からなる構造を同定することを,文頭まで繰り返すという戦略を採用する. 文末から各文節までの部分文節列は, 後方修飾性から必ず閉じた係り受け構造をもつため, 考えられる係り受け構造の各候補上で同じ係り先を持つ文節同士だけを語順入替の対象とすることが自然に可能となる.
## 3 提案手法
本手法では, 意味は伝わるものの読みにくい語順を持った文が入力されることを想定し,その文に対して, 係り受け解析を行うと同時に, 読みやすい語順と読点位置を同定する.入力文の文末から順に解析していき,文末から各文節までの部分文節列における係り受け構造と語順, 読点位置を決定することを繰り返す,という戦略により, 1 文に対する係り受け解析, 語順整序, 読点挿入の同時実行を実現する. 本節では, まず 3.1 節で, 入力文に対して係り受け構造, 読みやすい語順と読点位置を決定するアルゴリズムについて述べる。次に, $\mathrm{A}$ 節では,アルゴリズムの中で確率を計算する際に用いる確率モデルについて述べる.
## 3.1 アルゴリズム
本手法では, 係り受け構造と語順, 読点位置を 2 分木により表現することにより,そのあらゆるパターンを効率的に探索する。その 2 文木は次のように作る.
・各ノードに文節を割当てる.
・係り受け関係のあるノード間をエッジで結び,各エッジにはその下側のノードの直後に読点がある [1] か否か $[0]$ を示すラベルを持たせる。
・各ノードの左の子には, そのノードの文節に係る文節のうち, 最も文末に近い文節(係り受け木における長子)を配置する。
・各ノードの右の子には, そのノードの文節と同じ係り先を持つ文節のうち, そのノードの直前に位置する文節(係り受け木における直弟)を配置する。なお,係り受け木において兄弟関係にある(すなわち,係り先が同じ)文節間の上下関係は,文末側に位置するほど年上であるとする。
例えば, 1 節で示した文 2 における係り受け構造と
係り受け木(多分木)
2分木図12 分木での表現例
語順, 読点位置を 2 分木で表現すると図 1 のようになる。
本手法では, 次の手順で入力文の文節列を末尾から順に処理する。
1. 入力文節列を入力語順でキューに格納する.
2. キューから文末文節を取り出して 2 分木の根とする.更に 1 つ文節を取り出し,根の左の子の位置に挿入し,根との間のエッジの読点有無ラベル(すなわち,この文節の直後の読点有無) を同定することにより,2分木を生成する.
3. キューから 1 つ文節を取り出し, その文節を既に構築済みの 2 分木に挿入する形で新たな 2 分木を生成する. その際, 既に構築済みの 2 分木を前提として,係り受けの構文的制約上,挿入可能な位置や,新たに読点有無ラベルを判定すベきエッジのラベル值の組合せを考え,それらを新たな 2 分木の候補とし, 最適な 2 分木を選択する。この候補の生成については3.1.1で述べる。また,この候補選択のための確率モデルについては付録 A に示す。
4. 3 を繰り返し,キューが空になれば終了する.
## 3.1.1 係り受け構造, 語順, 読点位置の候補
前述した手順 3 における 2 分木の候補は, まず,既存の 2 分木の中で,新たにキューから取り出した文節を挿入できる位置を考え,次に,それらの各位置に挿入した各 2 分木において,新たに読点有無ラベルを判定する必要があるエッジを考えることにより生成する。
文節列 $B_{i+1: n}=b_{i+1} \cdots b_{n}$ に対する 2 分木に対して,新たな文節 $b_{i}$ を挿入できる位置は,入力語順でも出力語順でも係り受けの後方修飾性と非交差性を共に満たすという制約に基づき決まるが,2 分木の性質から簡単に調べ上げることができる。具体的には,次の位置に限られる。
- 直前に挿入されたノード $b_{i+1}$ の左右の子
- $b_{i+1}$ から根 $b_{n}$ に至る経路上の各エッジ
- $b_{i+1}$ から根 $b_{n}$ に至る経路上の各ノード $\left(b_{n}\right.$ は除く) から,右の子のみを辿って右の子を持たないノードに行きつくまでの各エッジと,その行きついたノードの右の子
なお,あるエッジに $b_{i}$ を挿入するとは,そのエッジの両端にあるノードの間に新たなノード $b_{i}$ を挿入することを意味する.
次に,上述の各位置に $b_{i}$ を挿入した 2 分木の各々において,新たに読点有無ラベルを判定する必要があるエッジとは,
- 新たに挿入したノード $b_{i}$ から上下に延びる各エッジ(ただし,子を持たない場合は上に延びるエッジのみ)
・ $b_{i}$ から右の子のみを辿って,右の子を持たないノードに至る経路上の各エッジ,
- $b_{i}$ から根 $b_{n}$ に至る経路上の各ノード $\left(b_{i}\right.$ と係り受け木において兄弟関係にあるノードと, $b_{n}$ は除く)から,右の子のみを辿って右の子を持たないノードに行きつくまでの各エッジ
である.これらは,文節 $b_{i}$ の直前直後,及び, $b_{i}$ の挿入によって係り受け距離が伸びる各文節の直後を表す.ただし,既に読点有と判定されているエッジはそのままとする.
## 3.2 アルゴリズムの動作例
図 2 に 1 節の文 1 を入力として与えられ, 文 2 を出力するときのアルゴリズムの動作例を示す. ステップ 1 では入力文「私は家を都会に憧れ飛び出した。」が文節ごとにキューに格納される.ステップ 2 ではキューから文末文節「出た。」が取り出され根とし, 文節「憧れ」が取り出され根の左の子とする. またこれらを結ぶエッジの読点有無を同定する。ステップ 3-a では文節「都会に」がデキューされる. このとき既存の 2 分木に対して「都会に」が挿入される位置の候補は 3 箇所存在する。各位置に挿入した 2 分木において読点有無を新たに判定するエッジのラベルが?で示されている.「都会に」は「憧れ」 に係るため,(1)が選択され,また「都会に」と「憧れ」の間には読点は打たれない. ステップ 3-bでは文節「家を」がデキューされる。このとき 2 分木に対して「家を」を挿入できる位置は 5 箇所存在する.「家を」は「出た。」に係り, また, 適切な語順
図 2 アルゴリズムの動作例
は「憧れ」の後であるため(5)が選択され,(5)に挿入した場合の 2 分木においてラベルが?となっているエッジについて読点有無を同定し, 今回はいずれも読点無となる. ステップ 3-c では文節「私は」がデキューされる. このとき既存の 2 分木に対して「私は」を挿入できる位置は 4 箇所存在する。「私は」は 「出た。」に係り, また, 適切な語順は先頭であるため(2)が選択される,(2)に挿入した場合の 2 分木においてラベルが?となっているエッジについて読点有無を同定し,今回は「私は」と「都会に」を結ぶエッジ(「私は」の直後)に読点が打たれる.キュー が空になったためステップ 4 でアルゴリズムが終了し, 1 節の文 2 が出力される.
## 4 評価実験
読みにくい日本語文の語順整序および読点挿入における本手法の性能を評価するため, 新聞記事を用いた実験を実施した.新聞記事中の文から擬似的に作成した読みにくい語順の文に対して本手法を適用し, 元の文の語順と読点をどの程度再現できるかにより評価した。
## 4.1 実験概要
評価用データには宮地ら [17] と同じ手順で作成された読点付きの読みにくい語順の文データ 1,000 文を用いた. A. 1 の各確率を推定するための機械学習モデルには勾配ブースティングマシン(GBM)を採用し, そのツールとして LightGBM ${ }^{1)}$ を用い,パラメータチューニングには Optuna2)を使用した. 学習には,京大テキストコーパス Ver.4.0 [19]のうち, 評価用データの作成に用いた文を除く 35,404 文を用いた.
語順整序の評価では,文献 [16] と同様に,文単位正解率(語順整序後の語順が元の文と完全に一致している文の割合)と 2 文節単位正解率(2 文節ずつ取り上げたときの文節の順序関係が元の文のそれと一致しているものの割合)を測定した。読点挿入の評価では, 正解文と語順が完全一致している文のみを対象として, 文献 [18] と同様に, 京大コーパスの読点を正解とした場合の再現率と適合率を測定した.
比較手法には宮地ら [17]の手法を用意した.
## 4.2 実験結果
実験結果を表 1 に示す. 提案手法は, 比較手法と比べて, 語順整序の 2 文節単位正解率や読点の再現率, 適合率, $\mathrm{F}$ 値において高い值を達成しており,本手法の有効性が確認された. 本手法による語順整序及び読点挿入が正解と完全に一致した例を図 3 に示す. 読みにくい語順を持った入力文に対して,読みやすい語順に修正した上で正しく読点が挿入できている.
## 5 まとめ
本論文では,読みにくい語順の文に対して係り受け解析, 語順整序, 読点挿入を文末からトップダウ
## 入力文 :
独身時代は自分の手帳を持ち、びっしりと、仕事の日程やおけいこ己゙と、テニススクール、食事会の予定などが書き込まれていた。
比較手法:
独身時代は仕事の持ち、おけいこごと、手帳をびっしりと日程やテニススクール自分の食事会の予定などが書き込まれていた。
提案手法(正解):
独身時代は自分の手帳を持ち、仕事の日程やおけいこごと、テニススクール、食事会の予定などがびっしりと書き込まれていた。
図 3 語順整序及び読点挿入の成功例
ンに同時実行する手法を提案した。評価実験の結果, 本手法の有効性を確認した. 今後は, 確率の推定に用いる素性や機械学習手法を見直すことにより,精度向上を図りたい。
謝辞本研究は, 一部, 科研費 No. 26280082, No. 19K12127により実施した。
## 参考文献
[1] 日本語記述文法研究会. 現代日本語文法 7. くろしお出版, 2009.
[2] 内元清貴, 村田真樹, 馬青, 関根聡, 井佐原均. コーパスからの語順の学習. 自然言語処理, Vol. 7, No. 4, pp. 163-180, 2000.
[3] 村田匡輝, 大野誠寛, 松原茂樹. 読点の用法的分類に基づく日本語テキストへの自動読点挿入. 電子情報通信学会論文誌, Vol. J95-D, No. 9, pp. 1783-1793, 2012.
[4] Allen Schmaltz, Alexander M Rush, and Stuart M Shieber. Word ordering without syntax. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 2319-2324, 2016.
[5] 横林博, 菅沼明, 谷口倫一郎ほか. 係り受けの複雑さの指標に基づく文の書き換え候補の生成と推敲支援への応用. 情報処理学会論文誌, Vol. 45, No. 5, pp. 1451-1459, 2004.
[6] Katja Filippova and Michael Strube. Generating constituent order in german clauses. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 320-327, 2007.
[7] Karin Harbusch, Gerard Kempen, Camiel Van Breugel, and Ulrich Koch. A generation-oriented workbench for performance grammar: Capturing linear order variability in german and dutch. In Proceedings of the 4th International Natural Language Generation Conference, pp. 9-11, 2006.
[8] Geert-Jan M Kruijff, Ivana Kruijff-Korbayová, John Bateman, and Elke Teich. Linear order as higher-level decision: Information structure in strategic and tactical generation. In Proceedings of 8th European Workshop on Natural Language Generation, pp. 74-83, 2001.
[9] Eric Ringger, Michael Gamon, Robert C Moore, David M Rojas, Martine Smets, and Simon Corston-Oliver. Linguistically informed statistical models of constituent structure for ordering in sentence realization. In Proceedings of the 20th International Conference on Computational Linguistics, pp. 673-679, 2004.
[10] James Shaw and Vasileios Hatzivassiloglou. Ordering among premodifiers. In Proceedings of the 37th Annual Meeting of the Association for Computational Linguistics, pp. 135-143, 1999.
[11] 鈴木英二, 島田静雄, 近藤邦雄, 佐藤尚ほか. 日本語文章における句読点自動最適配置. 情報処理学会全国大会講演論文集, Vol. 50, No. 3, pp. 185-186, 1995.
[12] 熊野明, 吉村裕美子, 野上宏康ほか. 自然な日本語生成のための指針. 情報処理学会全国大会講演論文集, Vol. 41, No. 3, pp. 165-166, 1990.
[13] Agustin Gravano, Martin Jansche, and Michiel Bacchiani. Restoring punctuation and capitalization in transcribed speech. In Proceedings of 2009 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 4741-4744, 2009.
[14] Wei Lu and Hwee Tou Ng. Better punctuation prediction with dynamic conditional random fields. In Proceedings of the 2010 Conference on Empirical Methods in Natural
Language Processing, pp. 177-186, 2010.
[15] Yuqing Guo, Haifeng Wang, and Josef Van Genabith. A linguistically inspired statistical model for chinese punctuation generation. ACM Transactions on Asian Language Information Processing, Vol. 9, No. 2, pp. 1-27, 2010.
[16] 大野誠寛, 吉田和史, 加藤芳秀, 松原茂樹. 係り受け解析との同時実行に基づく日本語文の語順整序. 電子情報通信学会論文誌, Vol. J99-D, No. 2, pp. 201-213, 2016.
[17] 宮地航太, 大野誠寛, 松原茂樹. 係り受け解析との同時実行に基づく日本語文の語順整序と読点挿入. 言語処理学会第 26 回年次大会発表論文集, pp. 243-246, 2020.
[18] 宮地航太, 大野誠寛, 松原茂樹. 読みにくい語順の文への読点の自動挿入. 言語処理学会第 25 回年次大会発表論文集, pp. 1308-1311, 2019.
[19] 黒橋禎夫, 長尾眞. 京都大学テキストコーパス・プロジェクト. 言語処理学会第 3 回年次大会論文集, pp. 115-118, 1997.
[20] 内元清貴, 関根聡, 井佐原均. 最大エントロピー法に基づくモデルを用いた日本語係り受け解析. 情報処理学会論文誌, Vol. 40, No. 9, pp. 3397-3407, 1999.
## A 候補選択のための確率モデル
入力文の文節列を $B=b_{1}, \cdots, b_{n}$ とし, 3.1 節のアルゴリズムのステップ 3 において, 文節 $b_{i}(1 \leq i<n-1)$ がデキューされたとする.このとき, 文節列 $B_{i: n}=b_{i}, \cdots, b_{n}$ に対する 2 分木 $S_{i: n}$ を $\operatorname{argmax} P\left(S_{i: n} \mid B\right)$ により決定する.ここで, $S_{i: n}$ は, 語順整序後の語順 $O_{i: n}=$ $\left.\{o_{i, i+1}, o_{i, i+2}, \cdots, o_{i: n-1}, o_{i+1, i+2}, \cdots, o_{x, y}, \cdots, o_{n-2, n-1}\right.\}$,読点位置 $C_{i: n}=\left.\{c_{i}, c_{i+1}, \cdots, c_{x}, \cdots, c_{n-1}\right.\}$, 係り受け構造 $D_{i: n}=\left.\{d_{i}, d_{i+1}, \cdots, d_{x}, \cdots, d_{n-1}\right.\}$ の三項組として定義され,$S_{i: n}=\left.\langle O_{i: n}, C_{i: n}, D_{i: n}\right.\rangle$ と書く. ここで $o_{x, y}(i \leqq x<y<n)$ は, 文節 $b_{x}$ と $b_{y}$ の間の順序関係を表し, $b_{x}$ が $b_{y}$ より文頭側に位置するか $\left(o_{x, y}=1\right)$, 否か $\left(o_{x, y}=0\right)$ の 2 值をとる. また $c_{x}(i \leqq x<n)$ は, 文節 $b_{x}$ の直後に読点が有るか $\left(c_{x}=1\right)$, 無いか $\left(c_{x}=1\right)$ の 2 值の值をとる. 最後に $d_{x}(i \leqq x<n)$ は, 文節 $b_{x}$ を係り元とする係り受け関係とする。
## A. 1 確率モデル
ある $S_{i: n}=\left.\langle O_{i: n}, C_{i: n}, D_{i: n}\right.\rangle$ に対する $P\left(S_{i: n} \mid B\right)$ を,下式により計算する。
$
\begin{gathered}
P\left(S_{i: n} \mid B\right)=P\left(O_{i: n}, C_{i: n}, D_{i: n} \mid B\right) \\
=\sqrt[3]{P\left(O_{i: n} \mid B\right) * P\left(D_{i: n} \mid B, O_{i: n}\right) * P\left(C_{i: n} \mid B, O_{i: n}, D_{i: n}\right)} \\
\times \sqrt[3]{P\left(D_{i: n} \mid B\right) * P\left(O_{i: n} \mid B, D_{i: n}\right) * P\left(C_{i: n} \mid B, O_{i: n}, D_{i: n}\right)} \\
\times \sqrt[3]{P\left(O_{i: n} \mid B\right) * P\left(C_{i: n} \mid B, O_{i: n}\right) * P\left(D_{i: n} \mid B, O_{i: n}, C_{i: n}\right)}
\end{gathered}
$
上式の最右辺における各確率は, 2 文節間の語順 $o_{x, y}$ は他の 2 文節間の語順とは互いに独立であり, かつ, 係り受け関係 $d_{x}$ も他の係り受け関係とは独立であり, かつ, 読点位置 $c_{x}$ は直後の読点位置を除く, 他の読点位置とは独立であると仮定すると, 以下のように近似できる.
$
\begin{gathered}
P\left(O_{i: n} \mid B\right) \fallingdotseq \prod_{x=i}^{n-2} \prod_{y=x+1}^{n-1} P\left(o_{x, y} \mid B\right) \\
P\left(D_{i: n} \mid B, O_{i: n}\right) \fallingdotseq \prod_{k=i}^{n-1} P\left(d_{k} \mid B, O_{i: n}\right) \\
P\left(C_{i: n} \mid B, O_{i: n}, D_{i: n}\right) \fallingdotseq \prod_{k=1}^{n-i} P\left(c_{n-k} \mid B, O_{i: n}, D_{i: n}, C_{n-k+1: n}\right)
\end{gathered}
$
$
\begin{gathered}
P\left(D_{i: n} \mid B\right) \fallingdotseq \prod_{k=i}^{n-1} P\left(d_{k} \mid B\right) \\
P\left(O_{i: n} \mid B, D_{i: n}\right) \fallingdotseq \prod_{x=i}^{n-2} \prod_{y=x+1}^{n-1} P\left(o_{x, y} \mid B, D_{i: n}\right) \\
P\left(C_{i: n} \mid B, O_{i: n}\right) \fallingdotseq \prod_{k=1}^{n-i} P\left(c_{n-k} \mid B, O_{i: n}, C_{n-k+1: n}\right) \\
P\left(D_{i: n} \mid B, O_{i: n}, C_{i: n}\right) \fallingdotseq \prod_{k=i}^{n-1} P\left(d_{k} \mid B, O_{i: n}, C_{i: n}\right)
\end{gathered}
$
## A. 2 機械学習に用いる素性
$P\left(o_{x, y} \mid B, D_{i: n}\right)$ を推定する際には, 文献 [16] で語順を推定する際に用いられた素性のうち, 読点に関する素性を除く全ての素性を用いる. $P\left(o_{x, y} \mid B\right)$ の推定では, $P\left(o_{x, y} \mid B, D_{i: n}\right)$ の推定時に使用した素性のうち,係り受け情報を使うことなく取得可能な素性を用いる. $P\left(d_{x, y} \mid B, O_{i: n}, C_{i: n}\right)$ を推定する際には,文献 [20] で係り受けを推定する際に用いられた素性のうち,括弧に関する素性を除く全ての素性を用いる. $P\left(d_{x, y} \mid B, O_{i: n}\right)$ の推定では, $P\left(d_{x, y} \mid B, O_{i: n}, C_{i: n}\right)$ の推定時に使用した素性のうち, 読点に関する情報を使うことなく取得可能な素性を用いる。 $P\left(d_{x, y} \mid B\right)$ の推定では, $P\left(d_{x, y} \mid B, O_{i: n}\right)$ の推定時に使用した素性のうち, 語順に関する情報を使うことなく取得可能な素性を用いる. $P\left(c_{x, y} \mid B, O_{i: n}, D_{i: n}\right)$ を推定する際には, 文献 [3] で用いられた素性のうち, 推定する文節境界より文頭側の係り受け情報と読点に関する情報を使うことなく取得可能な全ての素性を用いる. $P\left(c_{x, y} \mid B, O_{i: n}\right)$ の推定では, $P\left(c_{x, y} \mid B, O_{i: n}, D_{i: n}\right)$ の推定時に使用した素性のうち,係り受け情報を使うことなく取得可能な素性を用いる. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-17.pdf | # 論文の要旨からのタイトル生成における キーワードと分野別 fine-tuning の効果
金野佑太
茨城大学 工学部
17t4039x@vc.ibaraki.ac.jp
}
古宮嘉那子
茨城大学 理工学研究科
kanako.komiya.nlp@vc.ibaraki.ac.jp
## 1 はじめに
本稿では、Encoder-Decoder モデルにより論文の要旨からタイトルの生成を行う際に、論文の要旨にキーワードを追加する手法と、論文の分野ごとに fine-tuning する手法の効果について検証する。訓練データに、論文の要旨のみを使用したモデル、論文のキーワードのみを使用したモデル、論文の要旨とキーワードを使用したモデルの合計 3 つのモデルを作成し、スコアの比較を行った。また、様々な学会に投稿された論文のデータを用いてモデルを作成し、電子情報通信学会と日本建築学会に投稿された論文のデータを使用して fine-tuning を行った。テストデータには、電子情報通信学会、日本建築学会、情報処理学会、土木学会、高分子学会の 5 つの学会のデータを使用した。評価には要約用の評価指標である ROUGEを用いた。
実験の結果、論文の要旨にキーワードを追加することで ROUGE スコアの改善は見られなかったが、論文の分野ごとに fine-tuning することでROUGE スコアの向上が見られた。
## 2 関連研究
文書要約の研究はこれまでに多く行われており、様々なモデルが考案されている。See ら [1] は、 Pointer を介して入力系列から単語をコピーする Pointer-Generator と、入力系列中の要約された内容を追跡する Coverage Vector を使用するモデルを提案した。その結果、要約の不正確さと単語の繰り返し出力を低減することを示した。本研究では、キー ワードを利用した文書要約の効果を検証している。 キーワードを利用した文書生成の研究には、[2] がある。また、本研究では論文のタイトルと要旨を研究に用いているが、これらから特徴語を抽出する研究には [3] がある。
## 3 提案手法
## 3.1 Encoder-Decoder モデルによる論文要旨からのタイトル生成
本稿では、Encoder-Decoder モデルによる論文の要旨からのタイトル生成において、論文の要旨にキーワードを追加する手法と、論文の分野ごとに fine-tuning する手法の効果について検証する。
システムの入力には論文の要旨を単語分割した系列データを使用する。単語分割には形態素解析器である $\mathrm{MeCab}^{1)}$ を使用した。Encoder では入力となる系列データが Embedding 層で単語分散表現へと変換され、RNN 層により隠れ状態ベクトルが算出される。RNN 層では LSTM を利用し、Forward LSTM 層と Backward LSTM の 2 層を持つ BiLSTM を使用した。Decoder では隠れ状態べクトルと単語分散表現を用いてタイトルとなるターゲット系列が生成される。
## 3.2 論文のキーワードの追加
本実験では、Encoder-Decoder モデルへの入力として、論文のキーワードの果たす効果について検証する。本研究で使用した入力データの形態は以下の 3 通りである。
・要旨のみ
・キーワードのみ
・要旨とキーワード
要旨は MeCabを用いて単語分割した系列データ、 キーワードはキーワードのリストを空白区切りの系列データとして扱う。
論文の要旨にキーワードを追加するのは、タイトルにほぼ必須とも言える重要な単語が欠落することを防ぐ効果を期待している。
## 3.3 分野別 fine-tuning
本実験では、論文の分野ごとに fine-tuning することによる論文要旨からのタイトル生成の効果について検証する。
3.2 節で述べた要旨のみを入力データとしたモデルに対して、特定の分野の論文を訓練データとして fine-tuning を行った。要旨のみを入力データとしたモデルは複数の分野の論文を訓練データとして作成するため、これを General モデルとする。実験では、 General モデルと fine-tuning したモデルの ROUGE スコアを比較する。
論文の分野ごとに fine-tuning を行うのは、タイトルを生成したい論文の分野が既にわかっているときに同じ分野の論文で訓練されたモデルの方が高い精度を出すことを期待している。
## 4 実験
## 4.1 モデル
モデルの構築には、See らの実装を参考にしたモデルである OpenNMT BRNN(1layer, emb128, hid512) モデルのパラメータを使用した。実験では LSTM を用いた Attention 付き Encoder-Decoder モデルを使用した。Encoder-Decoder ともに単語ベクトルサイズを 128、次元数を 512 とする 1 層 LSTM を使用した。Encoder では双方向 LSTM(Bidirectional LSTM) を使用し、各方向の次元数をそれぞれ 256 とした。 Attention 層には Bahdanau ら [4] の注意機構 MLP を使用した。最適化アルゴリズムには adagrad を使用し、学習率を 0.15 にした。そして、モデルがソースから単語をコピーするためのコピー機構を導入した。また、実装にはオープンソースのニューラル機械翻訳及びニューラルシーケンス間学習のためのツールである OpenNMT ${ }^{2}$ を使用した。
## 4.2 データセット
実験に使用するコーパスに NII Testbeds and Community for Information access Research (NTCIR ${ }^{3}$ ) はが提供するデータセット NTCIR-1 と NTCIR-2を用いた。NTCIR-1 と NTCIR-2 はそれぞれ学会発表データベースからデータを収集したもので、論文の要旨やタイトル、主催学協会名や著者が付与した
表 1 学会別のコーパス (組数)
表 2 キーワードに関する実験に使用するコーパス (組数)
キーワードのリストなどが含まれている。
論文のキーワードに関する実験では、学習、開発、テストに使用するデータは学会別に分割した。 データ数が多かった上位 5 つの学会である、電子情報通信学会、日本建築学会、情報処理学会、土木学会、高分子学会とその他の学会に対してそれぞれ分割を行った。使用したデータの組数は表 1 に示す。全体ではその他の学会を含め 69 個の学会が存在する。また、キーワードが付与されていない論文デー タも存在するため、キーワードありのデータは全てのデータよりも数が少なくなっている。
各学会の学習、開発、テストデータの分割の仕方は以下の通りである。電子情報通信学会と日本建築学会のテストデータは fine-tuning 用としても使用するため割合が多くなっている。
- 電子情報通信学会 $=(4: 1: 5)$
- 日本建築学会 $=(4: 1: 5)$
- 情報処理学会 $=(3: 1: 1)$
- 土木学会 $=(3: 1: 1)$
- 高分子学会= $=(3: 1: 1)$
-その他の学会 $=(4: 1: 0)$
要旨のみ、キーワードのみ、要旨とキーワードを入力とするモデルに使用するデータの組数は表 2 に示す。
分野別 fine-tuning の実験に使用する学会はデータ数が多い上位 2 つの学会である電子情報通信学会と日本建築学会を使用する。fine-tuning には、General モデルの学習データと開発データ以外のデータを使用した。fine-tuning 用の電子情報通信学会と日本建築学会のデータは 5 分割し、3:1:1 の割合で学習
表 3 分野別 fine-tuning の実験に使用するコーパス (組数)
データ、開発データ、テストデータとして使用し、 5 分割交差検定を行った。テストデータには General モデルと同様に 5 つの学会のデータを使用した。実験に使用したデータの組数は表 3 に示す。括弧内は General モデルの作成に使用するデータ数である。
## 4.3 評価
評価には、テキスト要約用の評価指標である ROUGE[5]を使用した。ROUGEには様々なバリエーションがあるが、本実験では以下の 3 つの指標を用いる。
## - ROUGE-1
- ROUGE-2
- ROUGE-L
ROUGE-N(N=1,2,...) は N-gram 単位での単語の一致率で評価する手法である。ROUGE-N のスコアは再現率と適合率の調和平均である $\mathrm{F}$ 値に等しい。再現率は、正解データの単語数のうち予測データと一致した単語数の割合を表し、式 (1)のように計算できる。また、適合率は、予測データの単語数のうち正解データと一致した単語数の割合を表し、式 (2) のように計算できる。ただし、Count ${ }_{\text {macth }}$ は正解データと予測データの n-gram が一致している場合に 1 を返す関数であり、ref は参照要約である正解データ、sum は候補要約である予測データを表す。
$
\begin{aligned}
& \frac{\sum_{S \in \text { ref }} \sum_{\text {gram }_{n} \in S} \text { Count }_{\text {match }}\left(\text { gram }_{n}\right)}{\left.\sum_{S \in \text { ref }} \sum_{\text {gram }_{n} \in S} \operatorname{Count} \text { gram }_{n}\right)} \\
& \frac{\sum_{S \in \text { sum }} \sum_{\text {gram }_{n} \in S} \operatorname{Count}_{\text {match }}\left(\text { gram }_{n}\right)}{\left.\sum_{S \in \text { sum }} \sum_{\text {gram }_{n} \in S} \operatorname{Count} \text { gram }_{n}\right)}
\end{aligned}
$
ROUGE-L は、正解データと予測データで一致する最大のシーケンス Longest Common Subsequence (LCS)で評価する手法である。ROUGE-L のスコアは ROUGE-N と同様に再現率と適合率の調和平均に
等しい。単語数が $m$ の正解データXと単語数が $n$ の予測データ Yを用いて、再現率と適合率はそれぞれ式 (3) と式 (4) のように計算できる。ただし、LCS は2つの一致する最大のシーケンス長を表す。
$
R_{l c s}=\frac{L C S(X, Y)}{m}
$
$
P_{l c s}=\frac{\operatorname{LCS}(X, Y)}{n}
$
論文のキーワードに関する実験では、要旨のみ、 キーワードのみ、要旨とキーワードの 3 つのモデルに対してスコアの比較を行った。電子情報通信学会、日本建築学会、情報処理学会、土木学会、高分子学会をテストデータとし、各テストデータに対して ROUGE スコアを算出してマイクロ平均をとったものを最終的なスコアとして使用した。
分野別 fine-tuning の実験では、General モデルと電子情報通信学会で fine-tuning したモデル、日本建築学会で fine-tuning したモデルの比較を行う。 fine-tuning したモデルは 5 分割交差検定を行っているため、 5 回分の平均をとったものを最終的なスコアとして使用した。
## 5 実験結果
表 4 に要旨のみ、キーワードのみ、要旨とキー ワードをそれぞれ入力としたモデルの ROUGE スコアを示す。R1F、R2F、RLF はそれぞれ ROUGE-1、 ROUGE-2、ROUGE-LのF值を表す。R1F、R2F、RLF すべてにおいて、要旨のみ、要旨とキーワード、 キーワードのみの順に ROUGE スコアが高い結果となった。
次に、表 5 に General モデルと電子情報通信学会で fine-tuning したモデル、日本建築学会で fine-tuning したモデルのテストデータ別の ROUGE スコアを示す。電子情報通信学会で fine-tuning したモデルは、電子情報通信学会をテストデータとしたときが最もスコアが高く、General モデルの電子情報通信学会のスコアを R1F が 0.017、R2F が 0.009、RLF が
0.020 上回った。また、日本建築学会で fine-tuning したモデルは、日本建築学会をテストデータとしたときが最もスコアが高く、General モデルの日本建築学会のスコアを R1F が 0.042、R2F が 0.014、RLFが 0.033 上回った。
## 6 考察
入力にキーワードを利用することによる ROUGE スコアの向上は見られなかった。キーワードを利用したモデルの訓練データは少なくなっているが、 97.6\%以上に当たる量を利用しており、その差は僅かなため大きな影響があるとは考えづらい。実験ではモデルの学習に要約に適したオプションを使用したが、キーワードのみを入力としたモデルを学習する際は、文章生成に適したオプションを使用することで ROUGE スコアが改善されるのではないかと考えられる。また、要旨とキーワードを入力としたモデルは、キーワードを直接入力に組み込むのではなく、出力に組み込めるようにモデルを変更することでROUGE スコアが改善される可能性がある。その際は、実際にキーワードがタイトルにどの程度含まれているかを調査し、どのくらいの効果があるのかを検証する必要がある。
論文の分野別 fine-tuning をすることによって ROUGE スコアの向上が見られた。つまり、ある学会の論文データで fine-tuning したモデルはその学会の ROUGE スコアを向上させることができる。ま
た、電子情報通信学会で fine-tuning したモデルは、情報処理学会のスコアを R1F が 0.011、RLF が 0.013 上回り、日本建築学会で fine-tuning したモデルは、電子情報通信学会のスコアを R1F が 0.021、R2F が 0.022、RLFが 0.022 下回った。この結果から、論文の分野別 fine-tuning には、他の分野のスコアも大きく変化させることが確認できた。しかし、電子情報通信学会と情報処理学会のように分野が似ている学会であってもスコアの向上に大きく寄与しないこともあり、どの分野にどのような相関があるのかなどを明確に示すには至らなかった。
## 7 おわりに
本研究では、LSTMを用いて Attention付き EncoderDecoder モデルにより論文の要旨からタイトル生成を行い、論文の要旨にキーワードを追加する手法と、論文の分野ごとに fine-tuning する手法の効果を検証した。実験の結果、論文の要旨にキーワードを追加することで ROUGE スコアの改善は見られなかったが、論文の分野ごとに fine-tuning することで ROUGE スコアの向上が見られた。
今後の展望としては、実際にキーワードがタイトルにどの程度含まれているかを調査してどのくらいの効果があるのかを検証し、その上でキーワードを直接出力に組み込めるようにモデルを変更するなどが考えられる。分野別 fine-tuning においてはそれぞれの分野の相関性を求め、類似する分野の論文デー タを利用することでより大規模なデータで実験を行うことなどが考えられる。
## 謝辞
本研究は、茨城大学の特色研究加速イニシアティブ個人研究支援型「自然言語処理、データマイニングに関する研究」に対する研究支援およびJSPS 科研費 17KK0002 の助成を受けたものです。
## 参考文献
[1]Liu P.J. See, A. and C.D. Manning. Get to the point: Summarization with pointer-generator networks. ACL, p. 1073-1083, 2017.
[2]張浩達, 上垣外英剛, 高村大也, 奥村学. 複数の言語モデルを考慮したキーワードからの広告文生成. 第 34 回人工知能学会全国大会論文集, pp. 2H6-GS-9-04, 2020.
[3]菊地真人, 山内達登, BUI Tuan Thanh, 梅村恭司. 特徴語抽出の精度改善に向けた反復度と条件付き確率の比較. 第 34 回人工知能学会全国大会論文集, pp. 4Rin1-53, 2020.
[4]Cho K. Bahdanau, D. and Y. Bengio. Neural machine translation by jointly learning to align and translate. ICLR, 2014.
[5]Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. $A C L$, p. 74-81, 2004. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-18.pdf | # Commonsense Knowledge Aware Concept Selection For Diverse and Informative Visual Storytelling
Hong Chen ${ }^{1,3}$, Yifei Huang ${ }^{1}$, Hiroya Takamura ${ }^{2,3}$, Hideki Nakayama ${ }^{1,3}$
The University of Tokyo ${ }^{1}$, Tokyo Institute of Technology ${ }^{2}$
National Institute of Advanced Industrial Science and Technology, Japan ${ }^{3}$
\{chen, nakayama\}@nlab.ci.i.u-tokyo.ac.jp
hyf@iis.u-tokyo.ac.jp, takamura.hiroya@aist.go.jp
}
\begin{abstract}
Visual storytelling is a task of generating relevant and interesting stories for given image sequences. We propose to foster the diversity and informativeness of a generated story by using a concept selection module that suggests a set of concept candidates. Then, we utilize a large scale pre-trained model to convert concepts and images into full stories. To enrich the candidate concepts, a commonsense knowledge graph is created for each image sequence from which the concept candidates are proposed. To obtain appropriate concepts from the graph, we propose two novel modules that consider the correlation among candidate concepts and the image-concept correlation. Extensive automatic and human evaluation results demonstrate that our model can produce reasonable concepts.
\end{abstract
## 1 Introduction
Most previous works on Visual Storytelling (VST) constructed end-to-end frameworks $[19,18,10,21]$. However, their stories tend to be monotonous which contains limited lexical diversity and knowledge [6] (see the example in Figure 1). Recently, two-stage generation methods, also known as plan-write strategy, aroused much research attention in story generation tasks [20,14,1]. When adopted to the task of VST, Hsu et.al. [6] shows that this strategy is capable of generating more diverse stories compared with end-to-end methods.
In this work we aim to generate stories that are both diverse and informative for a given input image sequence. Taking the advantage of the previous two-stage models, we detect image concepts and construct concept graphs for proposing a set of concept candidates, and propose two novel methods for better selecting the appropriate concept for the second generation stage. After detecting the concept in each input image, we first extend the concepts into a larger commonsense graph using ConceptNet [13]. This extension step increases the informativeness of generated stories. Since selecting appropriate candidates from the concept graph is critical for generating stories of good qual-
[state-of-the-art] The basketball [state-of-the-art] It was a great day game was intense. The opposing for the baseball game. It was a lot of team was very competitive.The fun. The crowd was cheering game was intense. The fans on. The game was intense. It was a cheered. It was a great game . great day to see the game.
[Ours] The team was on the court [Ours] This was the baseball game. on the last night of the basketball The players were all excited to be game. The player on the team playing against each other in the was on a shot. The ball kept game. We all watched as the team getting blocked during the game. played together. The players got in Team fans on the sidelines were on the action and played hard. This cheering the team. The other was my favorite part of the game. team on the other shot was also The game was just too great. Our blocked. team won the game!
Figure 1 Stories generated by the existing work [10] and our proposed model using concept selection (red). The existing work tends to generate similar stories (blue) for different inputs.
Our model can generate more informative and diverse stories.
ity, a natural way is to use a graph attention network [17] to refine the node features.
For selecting the most adequate concept from the candidates as the input to the second stage of our model, two novel modules are proposed in this work. The first one, named Sequential Selection Module (SSM), operates in a straightforward manner that uses an encoder-decoder for selecting concepts for each image. Differently from SSM, the second module called Maximal Clique Selection Module (MCSM) processes the concept graph as a whole. It learns a probability for each concept in the training phase, and during inference it finds a maximal clique using the Bron Kerbosch algorithm [2]. The concepts within the clique are used for the next story generation step. Our experiments show that improved quality of concept selection can greatly help to increase the diversity of the generated stories while keeping the relevance with the input images.
The second stage of our model generates a story with the image features and the selected concepts. Other than using the same module for fair comparison with existing works, we also propose to modify the large scale pre-trained model BART [11] to input the images and concepts and output the full stories.
We conduct extensive experiments on the public VIST dataset [9]. Our experiments demonstrate that using our
Figure 2 An overview of our visual storytelling model. The image features are obtained by a pretrained CNN combined with a bi-LSTM layer. The concepts are obtained from a concept detection model and enriched by ConceptNet [13]. These concepts from the nodes in a graph and are connected according to the relationship in the knowledge base. Initialized by the word embedding vector, the concept features are then updated by a Graph Attention Network. Our proposed concept selection module is then applied to select concept words using the image and concept features. Finally, both image features and concept words are used to generate a full story.
proposed concept selection modules, our generated stories can achieve better performance on both automatic metric and multiple human evaluation metrics using the same generation module. When equipped with BART, the quality of the stories can be remarkably improved, with the generated story diversity similar to human writing.
In summary, our main contributions are listed as follows:
- We propose two novel modules SSM and MCSM to select concepts from the given candidates concepts under a plan-write two-stage visual storytelling system.
- We exploit modified BART as our story generation module to mitigate the problem caused by limited vocabulary and knowledge in the dataset.
- Large scale experiments using automatic metrics and human evaluation show that our model can outperform previous models by a large margin in both diversity and informativeness, while retaining the relevance and logicality as the previous work.
## 2 Related Work
Wang et.al. [18] proposed a visual storytelling framework which is widely used as a base model in the comingup studies. This framework uses an end-to-end structure that first converts the image into features and then transfers its information to the adjacent images by a BiLSTM layer. Finally, a decoder decodes the features separately and merges the sentences into a story. While many succeeding works $[8,10]$ can achieve high automatic scores, the story may not be interesting and informative [7] for humans as they often contain repetitive texts and limited information. On the other line of the research, to alleviate the low diversity problem, Hsu et.al. [6] proposed to generate several concepts before outputting the full stories. The discrete concept words can guide the decoder to produce more diverse stories. This plan-and-write strategy [20] can substantially increase the diversity of the stories.
## 3 Method
Figure 2 depicts an overview of our proposed model. Given a sequence of $N$ image features $I=\left.\{I_{1}, \ldots, I_{N}\right.\}$ as input, our model 1) construct a large commonsense graph for the images, 2) update concept feature in the graph, 3) select the concepts from the graph and 4), send concepts and image features into the decoder to output the full story. The details of each step are as follows.
## 3.1 Commonsense Graph Construction
We use clarifai [16] to obtain the top 10 seed concepts from each image. Each concept is used as a query to select relative commonsense concepts in the ConceptNet [13]. An undirected edge is established between concepts if they are related in ConceptNet. Also, a concept in one image will connect to the related concepts in the adjacent images to allow information flow between images.
## 3.2 Concept Features Update
Initialized with word embedding vectors, the concept features are updated by a two-layer Graph Attention Network, which passes information between connected concepts and image using attention mechanism.
## 3.3 Concept Selection Module
We propose two methods to select concepts given the concept features and the image features. To better formalize the procedure in the methods, we denote $c^{i, j}$ as the $j$-th concept of the $i$-th $(1 \leq i \leq N)$ image. we let $\mathcal{C}_{S}=\left.\{c_{S}^{1,1}, \ldots, c_{S}^{N, K}\right.\}$ and $\mathcal{C}_{G}=\left.\{c_{G}^{1,1}, \ldots\right.\}$ denote the concepts set in the source candidate concepts and the full word set in the gold story, respectively. The target concepts are their intersection: $\mathcal{C}_{T}=\mathcal{C}_{S} \cap \mathcal{C}_{G}$.
(a) Sequential Selection Module (SSM)
(b) Maximal Clique Selection Module (MCSM)
Figure 3 Concept selection modules: (a) Sequential Selection Module (b) Maximal Clique Selection Module
## 3.3.1 Sequential Selection Module (SSM)
One straightforward way of selecting concepts is to adopt an encoder-decoder model where we can forward the updated concept features into the encoder, and the decoder will output the selected concepts. Inspired by the Copy Mechanism [4], instead of generating a probability distribution with vocabulary size in each step, the SSM outputs are directly chosen from the inputs $\mathcal{C}_{S}$. As shown in Figure 3(a), we use a GRU [3] to first encode the concept embedding feature $v_{S}^{t-1}$ and the hidden state into a new hidden state $h^{t}$. We then use $h^{t}$ to query all the concepts in $\mathcal{C}_{S}$ to get a probability $p_{S}$ for each concept in the source set. Finally the concept with the highest probability is selected as the output concept, while its feature is directly copied for the generation of the next step:
$
\begin{aligned}
h^{t} & =\mathbf{G R U}\left(h^{t-1}, v_{S}^{t-1}\right), \\
p_{S} & =\operatorname{softmax}\left(\left(W_{h} h^{t}\right)^{\mathrm{T}} W_{c} V_{S}\right), \\
c_{S}^{t} & =\operatorname{argmax}\left(p_{S}\right)
\end{aligned}
$
Here $W_{h}$ and $W_{c}$ are trainable projection matrices. The objective function is to maximize the probability score of the concepts which locate in $C_{T}$.
$
\mathcal{L}_{s s m}=-\Sigma y_{S, T} \log \left(p_{S}\right)
$
where $y_{S, T}$ is an indicator of whether a concept in $\mathcal{C}_{S}$ is in $\mathcal{C}_{T}$. The sequence selection step stops when the module generates <end> token. This <end> token is added to the set of candidate concepts with a uniform random initialized feature without any update during the training phase. The same procedure is done to the <start> token except that it is not involved in the candidates.
## 3.3.2 Maximal Clique Selection Module (MCSM)
Different from SSM, this method aims to calculate the co-occurrence probability of all candidate concepts $c_{s}$ in the graph. An illustration of MCSM is shown in Figure 3(b). In the beginning, we calculate self-attention to compute a correlation matrix $M_{C} \in(N K \times N K)$ which contains the correlation between each pair of nodes. We also calculate another correlation matrix for each image $M_{I} \in(N \times K)$ indicating the correlation between the concept embedding feature $\left(v_{S}\right)$ and image features $(I)$.
$
\begin{aligned}
M_{C} & =\sigma\left(v_{S}^{\mathrm{T}} W_{a}^{\mathrm{T}} W_{b} v_{S}\right) . \\
M_{I} & =\sigma\left(I^{\mathrm{T}} W_{c}^{\mathrm{T}} W_{d} v_{S}\right) .
\end{aligned}
$
Here, $W_{a}, W_{b}, W_{c}, W_{d}$ is trainable weights, $\sigma$ denotes sigmoid activation function. Intuitively, the concepts that appear in a gold story should own high correlations with each other, and the image should be highly related to the gold concepts to describe it. Thus, our target correlation maps can be written as follow:
$
\begin{aligned}
& \hat{M}_{C}[i, j]= \begin{cases}1, & c_{i} \in \mathcal{C}_{T} \wedge c_{j} \in \mathcal{C}_{T} . \\
0, & \text { otherwise. }\end{cases} \\
& \hat{M}_{I}[i, j]= \begin{cases}1, & c_{j} \in \mathcal{C}_{T}^{i} . \\
0, & \text { otherwise. }\end{cases}
\end{aligned}
$
Then, the objective is to minimize the difference between predicted and target correlation maps:
$
\mathcal{L}_{m c s m}=\lambda_{1}\left.\|M_{C}-\hat{M}_{C}\right.\|_{2}^{2}+\lambda_{2}\left.\|M_{I}-\hat{M}_{I}\right.\|_{2}^{2}
$
In the testing phase, $M_{C}$ can be viewed as a fully connected graph in which the edge weights are the values in the matrix. Therefore, a low edge weight means less cooccurrence probability between two concepts. Based on this assumption, we set a threshold $\tau$ to remove the edges whose weight is less than $\tau$. Then we apply Bron Kerbosch algorithm [2] to find all maximal cliques from the remaining sub-graph. Finally, we score each of them with equation 6 and select a clique with maximum score $s$. The output concepts are the nodes within the selected cliques.
$
\begin{aligned}
s & =s_{C}+s_{I} . \\
s_{C} & =\frac{1}{\left(\left.\|\mathcal{C}_{P}\right.\|-1\right)\left.\|\mathcal{C}_{P}\right.\|} \sum_{i} \sum_{j \neq i} \log \left(M_{C}[i, j]\right) . \\
s_{I} & =\frac{1}{\left.\|\mathcal{C}_{P}\right.\|} \sum_{i=1}^{N} \sum_{c_{j} \in \mathcal{C}_{P}^{i}} \log \left(M_{I}[i, j]\right) .
\end{aligned}
$
Table 1 Human evaluation. Numbers indicate the percentage of annotators who believe that a model outperforms its opponent. Methods without (+BART) means using RNN as the story generation module. Cohen's Kappa coefficients ( $\kappa$ ) for all evaluations are in Moderate or Fair agreement, which ensures inter-annotator agreement. We also conduct a sign test to check the significance of the differences. The scores marked with * denotes $p<0.05$ and ** indicates $p<0.01$ in sign test.
Table 2 Diversity of generated stories by different methods. $\dagger$ denotes the story generation module is pre-trained with other dataset. it denotes the model is end-to-end trained.
where $\mathcal{C}_{P}$ denotes the concepts in a clique, and $\mathcal{C}_{P}^{i}$ denotes the concept of the $i$-th image in the clique.
## 3.4 Concept to Story Module
The selected concepts are assigned to its corresponding image to generate the sentences. We tried two kinds of encoder-decoder to decode the story: 1) RNN: a simple RNN based encoder-decoder module that uses multi-head pooling to encode the concept embedding, and decode the sentences with a RNN decoder. 2) BART: a large scale pre-trained encoder-decoder which both can encode the input and output the sentences.
## 4 Experiment
We conduct experiments on the widely used VIST dataset [9]. For fair comparison, we follow the same experiment setting as [10] except that we set the vocabulary size to 28,000 . All models use the same fixed random seed. We use the following baselines:
INet [10] uses a "hide-and-tell" strategy to train an end-toend model. In this method no concept is used.
KS [19] uses sigmoid attention to incorporate concept features into the model. We change the structure of the visual encoder and decoder the same as INet for fair comparison. KG-Story $\dagger$ [6] is a strong baseline that use two stage planwrite strategy and pre-train the decoder on RocStories Corpora [15]. †indicates the model uses a pre-trained model.
Image+BART $\dagger$ is an end-to-end baseline that uses BART on top of image features to directly generate the story. This baseline is one-stage that does not generate concepts.
We also change the concept selection module and story generation module in our model to validate the effectiveness of each component. Specifically, we compare: Rand+RNN, C_Attn+RNN, SSM+RNN, MCSM+RNN,
## and MCSM+BART $\dagger$.
Human Evaluation To better evaluate the quality of generated stories, we conduct human evaluation to compare pairwise outputs with several models via the Amazon Mechanical Turk (AMT). We sample 200 image sequences from the test set and generate stories using each model. For each sample pair, two annotators participate in the judgement and decide their preference on either story (or tie) in terms of Relevance, Informativeness, Logicality and Overall. Table 1 shows the human evaluation result. From the comparison between MCSM and INet and the comparison between MCSM and KS, we can see that our two-stage planning method greatly outperforms the end-to-end models, especially in the informativeness score. The MCSM module also outperforms the SSM module, which indicates positive correlation between the quality of concept selection and the overall quality of generated stories. Finally, using BART with MCSM can help to achieve further informativeness and generate even better stories.
Comparison on diversity We report Distinct-n scores [12] in Table 2 that calculate the percentage of unique $\mathrm{n}$-gram in all generated stories in the test data. Higher score means less inter-story repetition. From the table, two stage methods (KG-Story and ours) achieve significantly higher diversity scores. Our MCSM can generate the most diverse stories among all the methods without using external pre-trained models. When equipped with BART, we can achieve diversity close to human writing.
## 5 Conclusion
In this work we exploit concept selection for improving the diversity and informativeness of stories generated from image sequences. By constructing a commonsense graph and two novel modules for concept selection, our proposed model outperforms all previous works in diversity by a large margin while still preserving the relevance and logical consistency on the VIST dataset.
Acknowledgements This paper is based on the conference paper presented at AAAI2021 [5] and was based on the results from a project, JPNP20006, commissioned by the New Energy and Industrial Technology Development Organization (NEDO) and also supported by JSPS KAKENHI Grant Number JP19H04166.
## References
[1]P. Ammanabrolu, E. Tien, W. Cheung, Z. Luo, W. Ma, L. J. Martin, and M. O. Riedl. Story realization: Expanding plot events into sentences. In AAAI, 2020.
[2]C. Bron and J. Kerbosch. Algorithm 457: Finding all cliques of an undirected graph. 1973.
[3]K. Cho, B. Van Merriënboer, C. Gulcehre, D. Bahdanau, F. Bougares, H. Schwenk, and Y. Bengio. Learning phrase representations using rnn encoderdecoder for statistical machine translation. arXiv, 2014.
[4]J. Gu, Z. Lu, H. Li, and V. O. Li. Incorporating copying mechanism in sequence-to-sequence learning. arXiv, 2016.
[5]H. T. H. N. Hong Chen, Yifei Huang. Commonsense knowledge aware concept selection fordiverse and informative visual storytelling. AAAI, 2021.
[6]C.-C. Hsu, Z.-Y. Chen, C.-Y. Hsu, C.-C. Li, T.-Y. Lin, T.-H. Huang, and L.-W. Ku. Knowledge-enriched visual storytelling. arXiv, 2019.
[7]J. Hu, Y. Cheng, Z. Gan, J. Liu, J. Gao, and G. Neubig. What makes a good story? designing composite rewards for visual storytelling. In AAAI, pages 79697976, 2020
[8]Q. Huang, Z. Gan, A. Celikyilmaz, D. Wu, J. Wang, and X. He. Hierarchically structured reinforcement learning for topically coherent visual story generation. In $A A A I, 2019$.
[9]T.-H. Huang, F. Ferraro, N. Mostafazadeh, I. Misra, A. Agrawal, J. Devlin, R. Girshick, X. He, P. Kohli, D. Batra, et al. Visual storytelling. In ACL2016, 2016.
[10]Y. Jung, D. Kim, S. Woo, K. Kim, S. Kim, and I. S. Kweon. Hide-and-tell: Learning to bridge photo streams for visual storytelling. arXiv, 2020.
[11]M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov, and L. Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv, 2019.
[12]J. Li, M. Galley, C. Brockett, J. Gao, and B. Dolan. A diversity-promoting objective function for neural conversation models. arXiv, 2015.
[13]H. Liu and P. Singh. Conceptnet- a practical commonsense reasoning tool-kit. BT technology journal, 2004.
[14]L. J. Martin, P. Ammanabrolu, X. Wang, W. Hancock, S. Singh, B. Harrison, and M. O. Riedl. Event representations for automated story generation with deep neural nets. arXiv, 2017.
[15]N. Mostafazadeh, M. Roth, A. Louis, N. Chambers, and J. Allen. Lsdsem 2017 shared task: The story cloze test. In Proceedings of the 2nd Workshop on Linking Models of Lexical, Sentential and Discourselevel Semantics, 2017.
[16]G. Sood. clarifai: R Client for the Clarifai API, 2015.
[17]P. Veličković, G. Cucurull, A. Casanova, A. Romero, P. Lio, and Y. Bengio. Graph attention networks. arXiv, 2017.
[18]X. Wang, W. Chen, Y.-F. Wang, and W. Y. Wang. No metrics are perfect: Adversarial reward learning for visual storytelling. arXiv, 2018.
[19]P. Yang, F. Luo, P. Chen, L. Li, Z. Yin, X. He, and X. Sun. Knowledgeable storyteller: A commonsensedriven generative model for visual storytelling. In $I J$ CAI, 2019.
[20]L. Yao, N. Peng, R. Weischedel, K. Knight, D. Zhao, and R. Yan. Plan-and-write: Towards better automatic storytelling. In $A A A I, 2019$.
[21]L. Yu, M. Bansal, and T. L. Berg. Hierarchicallyattentive rnn for album summarization and storytelling. arXiv, 2017.
## 6 Appendix
## 6.1 Experiment on Concept Selection
Similar as Keyphrase generation tasks, we apply precision, recall and $f$ measure to evaluate the efficiency of concept selection methods. We compare among several methods:
Rand: A simple baseline where we randomly pick 3 concepts from the candidates for each image. On average, each image contains 2.65 gold concepts.
C_Attn: We extract the attended concepts where the attention score is larger than a threshold from the model of Yang et.al. [19]. This is an end-to-end model with sigmoid attention on concept words. We choose 0.8 as the threshold since this contributes the best $\mathrm{f}$-score.
Image to concept(I2C): This is a straightforward version of concept selection where the concepts are directly generated from the images. We simply add a projection layer on each hidden state to predict the concept words from the vocabulary size of the concepts, which is very similar to the model of Hsu et.al. [6].
SSM: Our proposal which uses a copy mechanism in each step of selection.
MCSM: Our proposal which calculates the correlation score for concept-concept and image-concept and uses maximal clique selection.
Qualitative results are shown in Table 3. We can see that our proposed SSM and MCSM can achieve significantly higher f-score than other methods. This helps our model to keep the story relevance to the input images while generating diverse stories.
Table 3 Concept selection performance of different methods. The results show that our MCSM achieved the best f-score among all methods.
## 6.2 Case Study
We show a qualitative result of a random test sample in Figure 4. This is a hard example because the last three images are very similar and the objects in all images are hard to recognize. We can see that INet generates monotonous and even irrelevant sentences. KS can generate better sentences but still low in lexical diversity. For the stories generated by two-stage strategy with RNN (SSM+RNN, MCSM+RNN), we can see that the story follows the selected concepts and the stories seem more reasonable than that of end-to-end training methods. When using BART, we compare three methods that represent no concept selection (Image+BART), bad concept selection (Rand+BART) and ours concept selection (MCSM+BART). We can see that without using concepts or using randomly selected concepts, the generated stories are of low quality and to a certain extent irrelevant to the images. However, when guided by the selected concept, the story becomes vivid, relevant and logical.
\\
It was a nice day for a walk on the water. There were many birds in the \\
sky. There were some pretty white ones. the water was very calm. \\
There were also a lot of birds in the water.
Figure 4 The examples of generated stories by different methods. Our MCSM and SSM can generate better stories compared with other baselines that do not use BART. When using the pretrained BART, the concept selection with MCSM can produce vivid and informative story. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-19.pdf | # Seq2Seq の組み合わせによる 問題文からの段階的プログラムコメント生成
大西朔永
岡山理科大学大学院総合情報研究科
i20im01os@ous.jp
}
椎名 広光
岡山理科大学総合情報学部
shiina@mis.ous.ac.jp
## 1 はじめに
第 4 次産業革命の中において,その核となる情報技術の理解を深める観点から,2020 年より,プログラミング教育 $[1,2]$ が小学校において,導入されており,情報技術に直接関わりのない大学においても導入されている。また,エラーを可視化する学習支援ツールの研究 [3] や操作ログを用いた初心者向け教育の研究 $[4,5]$, カードの操作を基本とした学習システムの研究 [6] が行われている. プログラミング教育の主目的はプログラムの作成ではなく, 論理的思考力の育成である. 論理的思考力とは,課題を解決するために必要な処理内容と処理の順序を考える能力で,実際にプログラミングをせずとも,論理的思考力を習得することは可能であり, その方法として,手続き学習を提案している.
手続き学習の研究として, 手作業によるアルゴリズムの学習についての研究 [7] がある. 手続き学習には,プログラムの概要を表す問題文と手続きが必要となるが,人手によるプログラム手続きの作成は,コストが高く,困難である. そのため, Seq2Seq(Encoder-Decoder)[8, 9, 10]を用いたプログラムのソースコードからプログラム手続きを自動生成する手法 $[11,12,13]$ の開発を行っている. また, Java のソースコードからメソッドのコメントを生成する研究 $[14,15,16]$ も行われている. これらの手法ではプログラム手続きの生成にプログラムのソースコードが必要となる.
本研究では,図 1 に示すように,ソースコードを必要としないプログラム手続きの生成を目的に,問題文から直接プログラム手続きの生成を試みている. しかし, 問題文から直接プログラム手続きにあたる行コメントを生成することは難しいと考えている.プログラムを作成する際の人間の思考過程は,最初に問題文から大まかな処理の流れ (手順) を考
図 1 問題文からの段階的プログラムコメント生成の概要
え,次に手順をより詳細な行単位の処理に具体化するという 2 段階であると考えられる。そのため,本研究では,問題文と行コメントの中間に大まかな処理の流れであるブロックコメントを加えた手法を提案している. GRU[17]を用いた Seq2Seqを組み合わせたモデルを用いて,最初に問題文からブロックコメントを生成し, 次に生成されたブロックコメントから詳細な行コメントを生成する 2 段階の生成手法である。問題文から直接行コメントを生成する手法と人間の思考過程に則った 2 段階生成の手法を自動機械翻訳評価指標である BLEU[18] やコメントの生成例で比較している。
## 2 手続き学習システム
プログラムには,プログラムの目的を達成するために必要な手続きとその手続きの順序を正しく記述する必要がある,必要な手続きをプログラムが動作する順序に並び替える問題を解くことにより,プログラムの手順を理解することが手続き学習の目的である. 手続き学習システム [19] の流れは, 最初にプログラムの問題文と必要な手続きを表示し,次にユーザに手続きをプログラムが動作する順序に並び替えて貪い,最後に,手続きの順序の正解,不正解
並び替え前
図 2 手続き学習システム
## を表示する。
手続き学習システムを図 2 に示す. 例の為替のプログラムの場合,問題文は「お金を円の単位で入力して、米ドル、ポンド、ユーロに変換するプログラムを作成しなさい。」であり,そのプログラムに必要な手続き 6 個が表示されている. 左の画面が並び替える前の問題画面であり,右の画面はユーザが並び替えた後の画面である.
## 3 プログラムコメントの生成
## 3.1 問題文から直接行コメントを生成する 直接生成手法
ベースラインとして,問題文から直接行コメントを生成する手法について述べる. プログラムの問題文と行コメントを対訳データとして,Seq2Seqを学習させる。問題文から直接行コメントを生成する手法の概要を図 3 に示す.
問題文という短い文章からプログラムの各行のコメントである長い文章を生成する手法であり,英語と日本語の翻訳等とは異なり,抽象的な情報をより具体的な情報にする必要がある。 そのため,生成する際に必要な情報が不足し,正しい行コメントの生成は難しいのではないかと考えられる。
## 3.2 段階的に行コメントを生成する 2 段階生成手法
問題文から直接行コメントを生成する手法の改善を目的に,ブロックコメントを間に挟むことで,行コメントを直接生成するのではなく,問題文から処理の単位ごとのコメントであるブロックコメントを生成し,ブロックコメントから更に具体的な行コメントを生成する 2 段階生成手法を提案する.
図 3 問題文から直接行コメントを生成する手法の概要
図 42 段階生成モデルの学習の概要
図 52 段階生成モデルの生成の概要
Seq2Seq の組み合わせ方について以下に示す.
(1)2 段階で行コメントを生成する手法の学習の概要を図 4 に示す. 2 段階生成モデルは 2 つの Seq2Seq で構成するが,各 Seq2Seq は独立して学習を行う. 第 1 段階の Seq2Seq は問題文とブロックコメントを対訳データとして学習し,第 2 段階の Seq2Seq はブロックコメントと行コメントを対訳データとして学習する。
(2)2 段階で行コメントを生成する手法の生成の概要を図 5 に示す. 生成においては第 1 段階の学習済み Seq 2 Seq で問題文からブロックコメントを生成し,生成されたブロックコメントを第 2 段階の学習済み Seq $2 S e q$ の入力として用い, 行コメントを生成する。
(3)2つの Seq2Seq を組み合わせ,段階的に行コメントを生成する 2 段階生成モデルの構造を図 6 に示す. 第 1 段階では問題文の単語 $x_{i}$ を順に Encoder 入入力し,変換された問題文の特徴を捉えたべクトルを用いて,Decoder はブロックコメントの単語 $y_{i+1}$ を生成する. 第 2 段階では
$x_{i}$ : 問題文の $i$ 番目の単語
$y_{i}:$ ブロックコメントの $i$ 番目の単語
$\mathrm{z}_{i}:$ 行コメントの $i$ 番目の単語
図 6 段階的に行コメントを生成する 2 段階生成モデルの構造
第 1 段階で生成されたブロックコメントの単語 $y_{i+1}$ を順に Encoderへ入力し,変換されたブロックコメントの特徴を捉えたべクトルを用いて, Decoder は行コメントの単語 $z_{i+1}$ を生成する。
2 段階生成手法では,ブロックコメントを追加しているため, モデルが利用可能な情報は増加しており,問題文から直接行コメントを生成する手法に比べ,生成される行コメントの精度が向上するのではないかと考えている. また, 生成の段階を分けることで,第 1 段階の生成で副産物としてブロックコメントが生成される利点もある.
## 4 生成コメントの評価
## 4.1 実験環境
評価するモデルは,ベースラインとして問題文から直接行コメントを生成する直接生成モデル,問題文からブロックコメントを生成し,そのブロックコメントから行コメントを生成する 2 段階生成モデルの 2 種類である. 対訳データとして,大学の情報科学科の講義で使用された $\mathrm{C}$ 言語のプログラム 26 個の問題文,ブロックコメント,行コメントを用いた. 生成されたコメントは,26 個のプログラムを学習と評価に 9 対 1 で分割し,オープンテストにより,評価している.評価方式については,生成されたコメントを対象に自動機械翻訳評価指標である BLEUを用いた。
## 4.2 評価指標 BLEU を用いた評価
生成されたコメントの BLEU による全体評価を表 1 に示す. 評価に用いた 3 個のプログラムの問題文表 1 生成されたコメントの BLEU による全体評価
表 2 問題文から生成されたブロックコメントの例
& \\
から生成されたブロックコメントと行コメントを BLEU で評価している.直接生成モデルはブロックコメントを生成せずに,問題文から直接行コメントを生成するため,ブロックコメントの評価は存在しない.
行コメントの評価では, 直接生成モデルと比較して,2 段階生成モデルは BLEU が約 0.026 向上した 0.5871 となっており,段階的にコメントを生成する 2 段階生成手法が有用であることが確認できる. また, 2 段階生成モデルの第 1 段階で生成されたブロックコメントの評価は 0.8093 となっており,高い評価であるため,行コメントの精度向上に貢献した可能性が考えられる. 2 段階生成モデルにおいては,第 1 段階の評価と第 2 段階の評価が比例し,第 1 段階の評価が低い場合は第 2 段階の評価も低くなるのではないかと考えている.
表 3 プログラム B の行コメントの生成例と評価
& & 0.4592 & & & 0.5169 \\
## 4.3 コメントの生成例による評価
2 段階生成モデルの第 1 段階で問題文から生成されたブロックコメントの生成例を表 2 に示す. プログラム A は「浮動小数点」や「入力」,「条件」,「表示」等の問題文に対応するブロックコメントを生成できている.プログラム B を確認すると,「行列の和」や「表示」等の問題文に対応するブロックコメントは生成できているが,問題文の「行列の要素の和」や「最小值」,「配列の添え字」に関するブロックコメントを生成できていない. 行列の和を計算し,表示するプログラムに強く影響されたことが原因であると考えている。
プログラム B の行コメントの生成例とその評価を表 3 に示す. プログラム A については直接生成モデル及び 2 段階生成モデル双方とも同じ行コメントを生成しており,その BLEU も 0.7270 と高い評価となっている. プログラム B は変数の宣言部分では直接生成モデルが「整数型変数」の宣言のみの生成であるのに対して,2 段階生成モデルは「整数型変数の配列」の宣言も生成できている。また,プログラム A は不必要な入力処理のコメントを生成してしまっている. どちらのプログラムにおいても複数のコメントの繰り返しが発生しているが,プログラム A が理解できないコメントの繰り返しであるのに対して,プログラム B は行列の和を求める処理を連想させる一連のコメントを繰り返している。
## 5 まとめと今後の課題
本研究では,手続き学習システムのためのプログラムコメントの生成を目的に,ソースコードを必要としない手法として,問題文からのプログラム手続きの生成を 2 種類の手法で試み,段階的にコメントを具体化する 2 段階生成モデルの有効性が確認できた. Seq2Seqの組み合わせ方の改善やソースコードも絡めた手法の開発が今後の課題である.
## 参考文献
[1]Ministry of Education, Culture, Sports, Science and Technology. Elementary school programming education guide (2nd edition). https://www.mext.go.jp/a_menu/shotou/ zyouhou/detail/1403162.htm, 2018. Accessed May. 5, 2020 (in Japanse).
[2]Ministry of Education, Culture, Sports, Science and Technology. How to programming education at elementary school level (Summary of discussion). https://www.mext.go.jp/b_menu/shingi/chousa/ shotou/122/attach/1372525.htm, 2016. Accessed May. 5, 2020 (in Japanse).
[3]Haruki Kanamori, Takahito Tomoto, and Takako Akakura. Development of a Computer Programming Learning Support System Based on Reading Computer Program. In Human Interface and the Management of Information. Information and Interaction for Learning, Culture, Collaboration and Business, pp. 63-69, 2013. DOI:10.1007/978-3-642-39226$9 \_8$.
[4]Koki Okimoto, Shimpei Matsumoto, Shuichi Yamagishi, and Tomoko Kashima. Developing a source code reading tutorial system and analyzing its learning log data with multiple classification analysis. Artificial Life and Robotics, Vol. 22, No. 2, pp. 227-237, 2017. DOI:10.1007/s10015-017-0357-2.
[5]Shimpei Matsumoto, Koki Okimoto, Tomoko Kashima, and Shuichi Yamagishi. Automatic Generation of C Source Code for Novice Programming Education. In Human-Computer Interaction. Theory, Design, Development and Practice, pp. 65-76, 2016. DOI:10.1007/978-3-319-39510-4_7.
[6]Shimpei Matsumoto, Yusuke Hayashi, and Tsukasa Hirashima. Development of a Card Operation-Based Programming Learning System Focusing on Thinking between the Relations of Parts. IEEJ Transactions on Electronics, Information and Systems, Vol. 138, pp. 999-1010, 2018. DOI:10.1541/ieejeiss.138.999.
[7]Junko Shinkai, Yoshikazu Hayase, and Isao Miyaji. A Trial of Algorithm Education Emphasizing Manual Procedures. In Proceedings of Society for Information Technology \& Teacher Education International Conference 2016, pp. 113118, 2016.
[8]Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to Sequence Learning with Neural Networks. In Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 3104-3112, 2014.
[9]Thang Luong, Hieu Pham, and Christopher D. Manning. Effective Approaches to Attention-based Neural Machine Translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 14121421, 2015. DOI:10.18653/v1/D15-1166.
[10]Alexander M. Rush, Sumit Chopra, and Jason Weston. A Neural Attention Model for Abstractive Sentence Summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, 2015. DOI:10.18653/v1/D15-1044.
[11]Akiyoshi Takahashi, Hiromitsu Shiina, Ryunosuke Ito, and Nobuyuki Kobayashi. Procedure Generation for Algorithm Learning System using Comment Synthesis and LSTM.
International Journal of Service and Knowledge Management( IJSKM), Vol. 3, No. 2, pp. 48-61, 2019.
[12]Sakuei Onishi, Akiyoshi Takahashi, Hiromitsu Shiina, and Nobuyuki Kobayashi. Automatic comment generation for source code using external information by neural networks for computational thinking. International Journal of Smart Computing and Artificial Intelligence (IJSCAI). to appear.
[13]Sakuei Onishi, Fumihiro Yukimoto, and Hiromitsu Shiina. Program Comment Generation Through Distributed Representation Construction Using Parse Tree Information. In IIAI International Conference on Advanced Applied Informatics 2020, pp. 434-439, 2020. DOI:10.1109/IIAIAAI50415.2020.00093. Online.
[14]Xing Hu, Ge Li, Xin Xia, David Lo, and Zhi Jin. Deep Code Comment Generation. In 2018 IEEE/ACM 26th International Conference on Program Comprehension (ICPC), ICPC '18, p. 200-210, 2018. DOI:10.1145/3196321.3196334.
[15]Xing Hu, Ge Li, Xin Xia, David Lo, and Zhi Jin. Deep code comment generation with hybrid lexical and syntactical information. Empirical Software Engineering, Vol. 25, No. 3, pp. 2179-2217, 2019. DOI:10.1007/s10664-019-09730-9.
[16]Boao Li, Meng Yan, Xin Xia, Xing Hu, Ge Li, and David Lo. DeepCommenter: A Deep Code Comment Generation Tool with Hybrid Lexical and Syntactical Information. In Proceedings of the 28th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering, p. 1571-1575, 2020. DOI:10.1145/3368089.3417926.
[17]Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724-1734, 2014. DOI:10.3115/v1/D14-1179.
[18]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. DOI:10.3115/1073083.1073135.
[19]Kohei Sakane, Nobuyuki Kobayashi, Hiromitsu Shiina, and Fumio Kitagawa. Kanji Learning and Programming Support System which conjoined with a Lecture. In IEICE Technical Report, Vol. 114 of ET2014-86, pp. 7-12, 2015. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-1.pdf | # 単語制約を用いた概念ネットワークの改良
本田 涼太* ${ }^{*}$ 村田 真樹*2 馬 青*3
*1 鳥取大学 工学部 電気情報系学科
*2 鳥取大学大学院 工学研究科情報エレクトロニクス専攻
*3 龍谷大学 先端理工学部 数理・情報科学課程
$* 1, * 2\{$ b17t2096a@edu. , murata@\}tottori-u.ac.jp
${ }^{* 3}$ qma@math. ryukoku.ac.jp
## 1 はじめに
近年,インターネットの普及等により電子テキストが増加している。これら大量の電子テキストから有用な情報を効率的に取り出す技術が求められている.そこで言語テキスト処理技術を用いテーマキー ワードとなる単語を入力することで,電子テキストや新聞データ等のメディアから入力単語の概念にかかわる概要情報を抜き出し概念ネットワークの研究が進められた。
これまでの研究で, 概念ネットワークの構築に際して,大竹ら [1] は, TF-IDF 法を用いて概念ネットワークの構築手法を提案した。また,土遠ら [2] は,概念ネットワークに出現した単語にテーマキーワー ドと無関係な単語があることに着目し, これら無関係な単語を出現させないために,「テーマ限定抽出法」を提案した。
しかし, これまでの研究では, 関連する単語を概念ネットワークとして表示する際に,単に TF-IDF 值が大きい単語を取り出して, ネットワークを構築しているため,よく似た内容の単語であっても離れて出現することがあった.
そこで本研究では, この概念ネットワークの構築において,Word2vec[3] を用いてある単語から発展するネットワークの単語を同種の単語に制約する。 そのようにすることでネットワークをより見やすくするように改良する. 本研究の目的は,ネットワー クの構築において出現する単語を同種の単語に制約し,より見やすいネットワークを構築することである. 単語制約を行いよく似た単語を近くに配置することで見やすくしたネットワークの一例を図 1 に示す. 図 1 では,「ビデオカメラ」と「レンズ」,「パソコン」と「スマートフォン」という似た意味の単語
が近くに配置されて,見やすくなっている。
図 1 単語制約したネットワークの一例
## 2 先行手法
本節では,これまでの概念ネットワークに関する研究において用いられた手法について述べる.
## 2.1 ネットワーク構築の手順
まず, 大竹らが提案したネットワークの構築手法を述べる.
手順 1 構築したいネットワークの主となる単語をテーマキーワードとして設定する.
手順 2 キーワードとなる単語を含んだ記事群を抽出し,その記事群から形態素解析を用いて名詞のみを抽出する。その際,一文字,ひらがなのみ,数字のみの単語を除外する。
手順 3 手順 2 で抽出された単語の出現頻度を調べ,上位 100 単語をノード候補とする。
手順 4 得られたノード候補の中から,TF-IDF 法を用い,値の大きな上位 5 単語をネットワークのノードとして選定する。TF-IDF 法については 2.2 節にて述ベる.
手順 5 手順 2 から手順 4 を繰り返して概念ネットワークを拡張する。
## 2.2 TF-IDF 法
ネットワークの構築において,ノードを選定する際に利用した TF-IDF 法について述べる.この節では入力データの電子テキストを新聞データとして説明する. TF とは単語頻度 (Term Frequency) のことであり, 入力データにおいて, 単語 $\mathrm{t}$ が出現した頻度のことをいう。また, DF は文書頻度 (Document Frequency) のことであり, 単語 $\mathrm{t}$ がある記事群 A において出現した記事の数のことをいう. $\mathrm{N}$ を記事群 A の総記事数として, TF-IDF 法を用いたノードの選定式を式 (1)に示す.
$
w=t f * \log \left(\frac{N}{d f}\right)
$
## 2.3 テーマ限定抽出法
土遠らは,大竹らの構築したネットワークにテー マ限定抽出法を導入した. テーマ限定抽出法とは, 2.1 節の手順 2 において, 記事を抽出する際に, テー マキーワードと現在のキーワードの両方を含む記事を抽出するようにしたものである. そうすることにより,テーマキーワードと関連性のない,または,関連性が薄いと考えられる単語が取り出されにくくなる.
## 3 提案手法
本節では, 本研究の提案手法である, 単語制約を用いてネットワークを構築するという点について述ベる.
## 3.1 Word2vec を用いた単語制約
単語制約には, Google 社が開発した Word2vec 内にある「単語のクラスタリング」を利用する.
単語のクラスタリングとは, Word2vec にテキストデータを学習させ,単語をベクトル化し,そのべクトルのコサイン類似度を求め類似度の高い単語をまとめて単語のクラスタを作り,各クラスタにクラスタ番号を割り当てるものである.このクラスタ番号が一致している単語群を似た意味を持つ単語とする。
## 3.2 単語制約を用いたネットワーク構築の手法
本研究では, 2.1 節で述べた概念ネットワーク構築の手法に,2.3 節で述べたテーマ限定抽出法と, 3.1 節で述べた単語制約の手法を加えてネットワー
クの構築を行う.この構築の手法を以下に示す.
手順 1 Word2vec の単語のクラスタリング機能を用いて,単語をクラスタ番号ごとにまとめる.
手順 22.1 節の手順 2 で得られたノード候補の単語の中ですでに出現している単語を除き,各単語の TF-IDF 值を計算する.
手順 3 TF-IDF 值を計算した後に TF-IDF 值の大きい順に単語を並べ,各単語のクラスタ番号を取り出し, クラスタ番号ごとに単語をまとめる。(図 2)
手順 4 クラスタ番号が同じ単語ごとに TF-IDF 値を計算し,TF-IDF 値が大きい順にクラスタ番号を並ベる.
手順 5 手順 4 で求めた TF-IDF 值が上位 5 位までのクラスタ番号を持つ単語を抜き出し,上位のクラスタ番号に所属する単語から順に 5 個までネットワークに表示させる.
このうち, 手順 4 で述べた TF-IDF 値の計算方法として, TF-IDF 合計值法と TF-IDF 最大值法の 2 通りを提案する。TF-IDF 合計値法は,クラスタ番号が同じ単語ごとにそれらの単語の TF-IDF 值を足し,その合計值上位 5 位までのクラスタ番号に所属する単語をネットワークに表示させる方法である. TF-IDF 最大值法は, クラスタ番号が同じ単語ごとにそれらの単語の TF-IDF 值の最大の値を探し,その最大値上位 5 位までのクラスタ番号に所属する単語をネットワークに表示させる方法である.
また,これら 2 つの計算方法の計算の一例を図 3 に示す.
ノード候補の単語
図 2 手順 3 の概要
図 $3 \mathrm{TF}$-IDF 值の計算例
## 4 実験と評価
## 4.1 実験データ
本実験では, 2.1 節で述べた従来手法と, 3.2 節で述べた 2 つの提案手法の合わせて 3 つの手法で概念ネットワークを構築した。まず,単語制約を行うために, Word2vecに学習させるデータとして, 毎日新聞 12 年分 (2007〜2018) のデータ (1,166,761 記事) を使用した。単語のクラスタリングを行う際,クラスタ数は 5,000 とした。ネットワークを構築する際のデータとして 2018 年の毎日新聞の記事 $(88,032$ 記事)を使用した。また,テーマキーワードとして 20 個の単語を選定した。
## 4.2 実験結果と評価基準
構築したネットワークについて次の 2 つの観点から評価した。
## 4.2.1 有用性
ネットワークに出現した単語がテーマキーワードの概念を理解するのに役に立つかという観点で評価した.具体的な評価点を以下に示す.
- 出現した単語について, あまり知らなかった事柄を知れた場合や,キーワードの概念を知るうえで役に立つと判断した場合.
・それぞれが知っている単語であっても,ノードのリンクによって新たな情報が得られる場合,意外な関係性である場合.
以上の 2 点に該当する箇所を,それぞれのテーマキーワードで計測した結果を表 1 に示す.
## 4.2.2 見やすさ
ネットワークの見やすい部分があるかという観点で評価した。具体的な評価点を以下に示す.
・似た意味の単語が並んで出現していることにより,見やすくなっている場合.情報がまとまっていると考えられる場合.
・似た意味の単語が並んでいることにより, 知らなかった単語でも, web 検索等をして並んでいる単語が同じような意味であると判断した場合.
以上の 2 点に該当する箇所を,それぞれのテーマキーワードで計測した結果を表 2 に示す.表 1 各テーマキーワードと役に立つ単語の数
& \\
表 2 各テーマキーワードと似た意味の単語が並んで、見やすくなっている部分の数
& \\
役に立つ単語:非核,憲法,ロシアとシリア見やすくなっている部分:首脳と首相
図 4 従来手法によるネットワーク
表 1 より, 役に立つ単語の数の平均は, 従来手法の 3.15 個に対して, TF-IDF 合計值法が 3.25 個と上回った.しかし, TF-IDF 最大值法は 3.05 個と下回った. また, 表 2 より, 見やすい部分の平均は,従来手法が 1.15 個であるのに対して,TF-IDF 合計值法が 3.05 個, TF-IDF 最大值法が 2.55 個といずれも上回った.この結果より, TF-IDF 合計値法が有用性, 見やすさの観点からもっともよい方法であると考える。
また,構築したネットワークの一例として,テー マキーワードを「安全保障」として構築したネットワークを以下に示す。従来手法によるネットワークを図 4 に, TF-IDF 合計值法を用いたネットワークを図 5 に, TF-IDF 最大值法を用いたネットワークを図 6 にそれぞれ示す。また,それぞれの図の下にそのネットワークにおいて役に立つ単語と,似た意味の単語が並び見やすくなっている部分を列挙している.
## 5 おわりに
本研究では, 概念ネットワーク構築の際に Word2vecを利用した単語制約を用いて,似た意味の単語を近くに配置し,ネットワークを見やすくすることを目的とした。役に立つ単語の平均は,従来手法が 3.15 個で TF-IDF 合計值法が 3.25 個, TF-IDF 最大值法が 3.05 個と, 従来手法と比べても情報量が減少することを抑え, 見やすい部分の平均は, 従来手法が 1.15 個に対して,TF-IDF 合計值法が 3.05 個, TF-IDF 最大值法が 2.55 個と,似た意味の単語が並んで見やすくなっている部分は増えた。また,提案
役に立つ単語:非核,憲法
見やすくなっている部分:米国と中国と日本,首脳と首相, シリアとトルコ,締結と署名,ロシアとウクライナ
図 5 TF-IDF 合計值法を用いたネットワーク
役に立つ単語:非核,憲法
見やすくなっている部分:米国と中国と日本,首脳と大統領と首相, 合意と一致, 問題と課題
図 6 TF-IDF 最大值法を用いたネットワーク
手法のなかでは,TF-IDF 合計值法を用いたネットワークのほうが,より見やすいネットワークを構築していることが分かった.
## 参考文献
[1]大竹竜太, 村田真樹, 徳久雅人. 大規模テキストデータを用いた社会構造ネットワークの自動抽出. 言語処理学会第 19 回年次大会発表論文集, pp. 798-801, 2013.
[2]土遠雄大. テキスト処理に基づく概念ネットワークの構築における無関連ノードの扱い. 鳥取大学卒業研究発表会論文, 2013.
[3]Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S. Corrado, and Jeff Dean. Distributed representation of words and phrases and their compositionality. Advances in Neural Information Processing Systems 26, pp. 3111-3119. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-20.pdf | # Encoder-Decoder モデルを用いた 文章表現を豊かにする執筆支援システム
鈴木勘太
芝浦工業大学工学部
al17055@shibaura-it.ac.jp
}
杉本徹
芝浦工業大学工学部
sugimoto@shibaura-it.ac.jp
## 1 はじめに
小説や随筆といった文学作品の執筆において,豊かで趣のある文章表現を推敲することは,良い作品を作り上げるうえで重要な過程の一つである。その中で,コロケーションや比喻表現,類語の辞典を参考にすることは,執筆者の表現の幅を広げる手助けとなる.しかし, これらの辞典は多くの場合網羅的であり,執筆者は多くの選択肢の中から最適なものを選び出す必要がある. 執筆の手助けという点では,実際に執筆者のつづった文の文脈に沿った文章表現を提案することが重要である.
そこで,ある系列データから別の系列データを生成するタスクに使われる Encoder-Decoder モデルの応用を考える. 執筆者のつづった文から文章表現を付加した文を生成することによって,文脈を考慮した文章表現の提案が可能となる。
Encoder-Decoder モデルは,機械翻訳や文書要約,対話応答の生成といったタスクにおける研究が盛んである。これらの主要なタスクは,基本的に 1 つの答えを導き出すことが目的である.例えば,機械翻訳や文書要約は情報や意味内容を保持した生成を行うため, 入力と出力は一対一または多対一の関係にある.また,対話応答の生成は,目的によって多様性が重視される場合があるものの,ユーザへは最終的に 1 つの応答を返す.
一方,本システムのタスクでは,例えば「踊る」 という言葉を表現する場合,「軽やかに踊る」といった形容表現や「ウサギが跳ねるように踊る」といった比喻表現が考えられ,「踊る」という言葉自体も 「舞い踊る」や「音楽に摇られる」といったパラフレーズが考えられるため, 答えが 1 つではない問題を扱うこととなる。したがって, 提案の際には複数の候補を提示し,ユーザに選択の自由を与える必要がある.
図 1 システムの概要図
本研究では,執筆者のつづった文の文脈を考慮して,豊かで趣のある文章表現を付加した複数の候補文を提案する執筆支援システムを構築し,答えが 1 つではない問題への Encoder-Decoder モデルの応用について可能性の検討を行う.
## 2 関連研究
伊藤らの研究 [1] では,不完全な文から目的に合った完全な文の候補を自動生成する情報補完型生成モデルを新しい言語生成課題として提案しており,英語論文の執筆支援を想定したタスクにおいて,複数の評価指標でモデルのスコアが入力文のスコアより参照文のスコアに近づく傾向にあったと報告している。情報を付加して生成を行うという目標は本研究と類似しているが,最適な 1 つの候補を求めているという点で異なっている。また,完全な文から不完全な文を疑似生成することによって大規模な教師データを構築する手法を提案しており, 本研究でもその手法をべースにデータセットを構築している.
## 3 システムの概要
システムの概要を図 1 に示す. まず,実在する文学作品から文章表現の欠如した文を作成し, 元の文と対にしたデータセットを構築する。次に,そのデータセットを教師データとして学習を行った生成
モデルを構築する. システムは,ユーザの作成した文を入力としてモデルが生成した豊かで趣のある文章表現を付加した複数の候補文をユーザに提案することによって,執筆活動の支援を行う。
## 4 データセットの自動構築
実在する文学作品の文をターゲット,それらから作成される文章表現の欠如した文をソースとしたパラレルコーパスを構築し,これをデータセットとする. 文学作品の文書集合として新字体および現代仮名遣いで書かれた青空文庫 ${ }^{1)}$ の作品約 469 万文のテキストデータを使用し,各文に対して機械的に文章表現を除去する変換を行うことによって,経験の少ない執筆者を想定した文書集合を疑似的に作成する. 青空文庫の作品をターゲットとすることによって,どのような文脈でどのような表現がふさわしいかを実際に存在する例から学習することが可能となる。
まず,豊かで趣のある文章表現を,ストーリーを端的に述べる文と比較して付け足されていたり,言い換えられているフレーズと定義する。この定義から文章表現を,ものの性質や状態を形容する形容表現,事物を巧みに表現する修辞技法,日常的には用いられない技巧的な言い回し(パラフレーズ)の 3 つに分類した.これらの文章表現をもとに,ター ゲット文に対して以下の 4 つの変換処理を行ってソース文の作成を行う. 各変換処理では予めター ゲット文の形態素解析および係り受け解析を行っておく。
形容語の除去形容表現を担う単語の除去を行った文を作成する. 形容詞, 形容動詞, 副詞の 3 つの品詞の単語を検出し, それを根とする係り受け木に含まれる単語を削除する。また,修辞技法のひとつである擬態法は副詞的用法が多いため, ここで除去を行う。
直喻法の除去修辞技法のひとつである直喻法の除去を行った文を作成する。「〜ような」といった直喻法のキーフレーズを検出し,それを根とする係り受け木に含まれる単語を削除する。
反復法の除去修辞技法のひとつである反復法 (畳語法)の除去を行った文を作成する,自立語から始まる繰り返しのフレーズを検出し,片方を削除する.ただし複合語である場合は削除を行わない.
技巧的な言葉の平易化文学作品で使われるよう
な技巧的な言葉を一般的によく使われる類義語へと言い換えた文を作成する,ターゲット文の各形態素に対し,体言を除く自立語を言い換えの対象単語とし,以下の手順でソース文を作成する.
1. 対象単語について日本語単語ベクトルデータ2) からコサイン類似度の高い単語を類義語として取得し,これを言い換えの候補単語とする。
2. 類似度上位の候補単語から対象単語と品詞および活用が一致するものを探索する。
3. 候補単語が, $\mathrm{BCCWJ}^{3)}$ から作成した単語の出現頻度データ4)において対象単語より出現頻度の高い単語であった場合,その単語をリストへ追加する.そうでなかった場合は 2. の探索を再開する。
4. 全ての対象単語に対し 1. から 3.を繰り返してリストを作成し,これをもとにターゲット文から対象単語の置換を行った文を作成する。
以上の変換処理を経て,合計約 333 万対のデータセットを構築した. その内訳を表 1 に示す.
## 5 生成モデルの構築
構築したデータセットから訓練データ,検証デー タおよびテストデータを作成し, 生成モデルの構築を行った. モデルには Transformer[3] を用いた. 語彙数は 50,000 語とし, それ以外のトークンは未知語トークンとして処理をした。
## 6 候補提案システムの構築
構築した生成モデルを用いて,ユーザの入力から生成された出力をもとに候補文を提案するシステムを構築する. 出力の未知語処理として Jean らのコピーベースの手法 [4] を用いた.ソースとター ゲットの言語が同じであるため,コピーベースの未知語処理は有効であると考えられる。出力に含まれる未知語トークンを, Transformer モデルから抽出し
表 2 形容語や擬態法が付加された出力例と文脈による出力の変化
表 3 直喻法や反復法が付加された出力例
表 5 自動評価によるスコア
た Attention スコアをもとに最も関連度の高い入力のトークンへ置換することによって,未知語処理を行う.
また,本システムでは複数の候補を提案することが目的であるため,推論に 10 窓のビームサーチを用い,スコア上位 6 つの出力を候補文としてユーザに提案する.ただし,出力文が入力文と同じであるか, 出力文に含まれる未知語トークンの数が入力文より多い場合は候補に含めない。
## 7 実験と評価
## 7.1 モデルの自動評価
未知語処理を行っていないモデル (Transformer) と, 未知語処理を行った提案モデル(Transformer +copy)に対して自動評価を行った. その結果を表 5 に示す. 評価指標には ROUGE-1,2,L(R-1,2,L) を用いた。文長は文の平均トークン数である.
まず,全ての評価指標において未知語処理を行った提案モデルの方が行わなかったモデルよりもスコアが参照文に近づいた。これは,Attention スコアを用いたコピーベースの未知語処理の手法が有効であったことを示している。また,R-1 のスコアは提案モデルが最も高かった. これは, 文章表現の付加によって単語単位で出力文が参照文に近づいたこと表 4 言い換えが行われた出力例入力文彼は海の幸を賛沢に使った料理を作った。出力文 1 彼は海の幸をふんだんに使った料理を作った。出力文 2 彼は海の幸を贅沢に使った料理をこしらえた。出力文 3 彼は海の幸をふんだんに使った料理をこしらえた。出力文 4 彼は海の幸をふんだんに使った料理をこさえた。出力文 5 彼は海の幸をリッチに使った料理を作った。出力文 6 彼は海の幸を贅沢に使った料理をこさえた。
を示している.それに伴って文長も提案モデルが参照文に最も近づいた。一方,R-2,R-L のスコアは入力文が最も高かった。これは,推論において参照文と異なる部分に文章表現の付加が行われた場合,基本的に参照文の部分集合である入力文の方が出力文よりもスコアが高くなるためだと考えられる。本システムのタスクが答えの 1 つでない問題を扱っていることを考えると,これらの指標は適切ではない可能性がある.
## 7.2 出力の例
提案モデルを用いた出力の結果として,形容語や擬態法が付加された例を表 2 に,直喻法や反復法が付加された例を表 3 に,言い換えが行われた例を表 4 に示す.
また,表 2では,「摇れる」という単語に着目した文脈の違いによる出力の変化の例を示した. 表左の入力文における「摇れる」は「草木」を主語として上下左右に動く動作を意味しており,出力では「ゆらゆら」や「ざわざわ」といった文章表現が付加された一方,表右の入力文における「摇れる」は「気持ち」を主語として不安定な状態になることを意味しており,出力では「ひどく」や「少し」といった文章表現が付加された.この結果は, Encoder-Decoder モデルを用いることによって文脈を考慮した文章表現の提案が可能であることを示している.
## 7.3 システムの人手評価
調査票によって提案モデルを用いたシステムの人手評価を行った. 15 個の文を入力とし,それぞれに対するスコア上位 6 つの出力を候補文として用意し
表 6 総合評価を目的変数とした回帰分析の結果
た. 被験者には, 入力文と各候補文を比較し, 候補文に対して豊かさ(付加された文章表現が豊かであるか,乏しいか),流暢さ(文として自然か,不自然か), 意味の保持(意味内容が保たれているか,ずれているか),総合評価(小説や随筆の執筆支援システムとして,入力文からその文へ変更したいと思うか)の 4 つの評価尺度で 5 段階評価をしてもらった。
各評価尺度を 1 から 5 へと数値化し分析を行った結果,第 1 候補文の総合評価の平均は 3.39 だった一方,これを含めた 6 つの候補文のうち,総合評価が最も高かったものの平均は 4.51 であった. これは, 1 つの候補を提案するより複数の候補を提案する方がより良い支援になることを示している.
また,提案された 6 つの候補文のうち,総合評価が 3 (どちらともいえない)より高かった候補文の数は平均で 3.6 個, 4 (やや選びたい) 以上だった候補文の数は平均で 2.4 個で,いずれにおいても総合的に見て選びたい候補文が複数あったことを示しており,執筆支援としてユーザに選択の自由を与えることができたと考えられる。
以上の結果は,本システムのタスクが,推論上最も適している第 1 候補が実際に求められている候補であるとは限らない問題であることを示しており,同時に,答えが 1 つではない問題への Encoder-Decoder モデルの応用が可能であることを示している.
次に,調査票の結果における総合評価を目的変数とした回帰分析を行った結果を表 6 に示す.
豊かさ,流暢さ,意味の保持それぞれの評価尺度は総合評価に強く関係し, ある候補を選ぶ基準としては流暢さ,豊かさ,意味の保持の順で影響があることが確認できる. 意味内容の保持の程度より文章表現の豊かさの方が最終的な評価に影響していることは,文章表現の執筆支援である本システムの特徴といえる.
## 8 インタフェースの提案
複数の候補の提案そのものは機械翻訳などでも書き方の摇れへの対処として実装例があるが,本システムはさらに多くの候補を提案することを想定しており,それによって,例えば「それは黒い猫だっ
図 2 Attention スコアのヒートマップの例
図 3 提案するインタフェースの例
た。」という入力に対し,第 6 候補を超える第 11 候補として「それは影のような黒い猫だった。」という文を提案可能である等,よりユーザの表現の幅を広げる手助けが可能となる。しかし,候補文の数とユーザへの負担はトレードオフの関係にあると考えられるため,実用性を考慮すると入力文から変化した部分のみを提案する必要がある.
そこで,Attention スコアを利用したインタフェー スを提案する. 図 2 に示すように,入力から変化のあった出力のトークンは特定の入力のトークンとの Attention スコアが高くなる傾向があった。この例からは,出力の「水」が入力の「冷たい」と強い関係を持っていることを確認できる. そこで,入力文と出力文のアライメント処理を行って変化した部分を検出し, Attention スコアを用いてそれがどの単語に対して付加された文章表現であるかを解析したのち, 図 3 のように特定の単語にフォーカスした文章表現の提案を行う.
## 9 おわりに
Encoder-Decoder モデルを応用し,周辺文脈を考慮して豊かで趣のある文章表現を付加した複数の候補文を提案する執筆支援システムを提案した。調査票による人手評価では執筆支援として総合的に良い評価が得られた。また,以上の結果を踏まえ, Attention スコアを利用したインタフェースを提案した. 将来的には,これを導入したより実用性のある執筆支援システムの開発を目指す.
## 参考文献
[1] 伊藤拓海, 栗林樹生, 小林隼人, 鈴木潤, 乾健太郎. ライティング支援を想定した情報補完型生成. 言語処理学会第 25 回年次大会, pp. 970-973, 2019.
[2] 真鍋陽俊, 岡照晃, 海川祥毅, 高岡一馬, 内田佳孝, 浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会, pp. 1407-1410, 2019.
[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017.
[4] Sébastien Jean, Kyunghyun Cho, Roland Memisevic, and Yoshua Bengio. On using very large target vocabulary for neural machine translation. CoRR, Vol. abs/1412.2007, , 2014. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-2.pdf | # 単語クラスタリングによって文書情報を整理する手法の改良
符 家俊*1 村田 真樹*1,2 馬 青*3
*1 鳥取大学大学院 工学研究科情報エレクトロニクス専攻
*2 鳥取大学工学部付属クロス情報科学研究センター
$* 3$ 龍谷大学 先端理工学部 数理・情報科学課程
${ }^{* 1,2}\{$ m20j4046h@edu. ,murata@ \}tottori-u.ac.jp
*3 qma@math.ryukoku.ac.jp
## 1 はじめに
近年,インターネットの発展と伴い, ネット上の情報が急速的に増えている.これらの情報を上手く利用するために, ネット上の文書の情報を利用して, 重要な情報を表に整理する研究が考えられている.このような研究では重要な情報を表に整理して, 重要な情報を見やすいようにする. 作文の際に書き漏らしの部分を検出することもできる. 赤野ら [1] の研究では, 文書を単語単位で整理する. まずは人手でクラスタ数を 1000 と決定して, Wikipedia でのデータと Word2vec を用いて, クラスタリングする. そして,このクラスタリングの結果を用いて, 電子文書に出現するクラスタの単語を該当する行と列の箇所に埋めて, 表を作る. 岡崎ら [2] の研究では, 情報を文単位で抽出して,これらの情報をクラスタリングする際, 自動的に最適なクラスタ数や列の重要度を決めて, 情報を表に整理する。
岡崎ら [2] の研究では文で情報を整理するので, 単語のように細かく情報を整理することはできない。一方, 赤野ら [1] の研究では重要な列が見つからない場合がある. 本研究ではこの欠点を改善するため, 単語レベルで情報を抽出しつつ, 岡崎らの研究を使って, 表の埋まり具合と情報の密集度を用いて, クラスタリングの際の最適なクラスタ数を推定して, 重要な列を自動的に選択する. 本研究での主張点は以下の 3 点である.
## 新規性
赤野ら [1] の研究は人手でクラスタ数 1000 で設定して, 人手で重要な列を選択する. 本研究では自動でクラスタ数を決定して, 重要度の順に列を自動的に並べ替える.
## 有用性
赤野ら [1] の研究では人手で重要な列を選択する必要がある. 本研究では手作業がなくても, 自動的に重要な列を選択することができる.
## 性能
本研究で整理した表の性能を $\mathrm{F}$ 值で評価すると, 平均值は 0.82 である. 異なるデータでの実験であるが $\mathrm{F}$ 值で赤野ら [1] の研究を評価すると, その平均値は 0.75 である.
## 2 徒来手法
赤野ら [1] の研究では文書に含まれる情報を単語ごとに分割し, 種類ごとに分類し, 表に整理する手法を提案した. 表に整理する手順を以下に示す.
## 2.1 従来手法の手順
手順 1 抽出したい事柄を決定する. Wikipedia から, 抽出したい事柄を含む文書を抽出する.
手順 2 Wikipedia の全データを用いて, Word2vec で単語をクラスタリングする. 各クラスタにはクラスタ番号をふる。
手順 3 クラスタリング結果に基づく単語のクラスタを表の列とし, 文章を表の行とし, 文書に出現するクラスタの単語を該当する行と列の箇所に埋める。
手順 4 表の各列にある単語の頻度を求める.この頻度を用いて, 頻度の大きい列を左の方にするようにソートする. 頻度の少ないクラスタ番号の列を削除する.
手順 5 表のソート結果を基に人手で表の列を選択する.
## 2.2 従来手法の問題点
従来手法では Wikipedia の全データを使って, 人手でクラスタ数を 1000 に設定してクラスタリングし,このクラスタリングの結果と整理したい文書を比較し表を作るので, 列の数が多すぎて単語の頻度でソートしても重要な列を選択するのが難しいという問題がある.
## 3 提案手法
従来手法では Wikipedia 全データを使って, 人手でクラスタ数を 1000 で設定してクラスタリングする. 本研究では岡崎ら [2] の研究を使って, 表の埋まり具合と情報の密集度のバランスを最適にする方法でクラス久数を推定し,クラスタリングする. 赤野ら [1] の研究では人手で重要な列を選択する. 本研究では岡崎ら [2] が提案した情報を自動的に重要度で整理する方法を使って, 文書中の重要な単語レベルの情報を自動的に選択し, 表に整理する. 提案手法の手順を以下に示す.
## 3.1 提案手法の手順
複数文書に含まれる単語の情報を表に整理する手順を以下に示す。
手順 1 文書に含まれる単語を MeCabで分割して, 品詞が名詞かつ連続している単語を一つの単語として扱う.このような単語は連続単語と呼ぶ. 名詞ではない単語を削除する。
手順 2 各文について, 文中の単語のベクトルを求め, 連続単語のベクトルはこの連続単語に含まれる単一の単語のベクトルの和をこの連続単語のベクトルとする.
手順 3 単語ベクトルを基に単語を Ward 法による階層クラスタリングでクラスタリングする.
手順 4 階層クラスタリングによって得られた各クラスタ数でのクラスタリング結果を基に, 表を作る. 表の埋まり具合と情報の密集度を使って, 最適なクラスタ数を推定し, 最適な表を選択する。
手順 5 手順 4 で採用されたクラスタ数でのクラスタリングの結果を, 行を文書, 列をクラスタとする, 表に整理する。
手順 6 表の各列について, 重要度を計算して, 重要度で並べ替える。
## 3.2 文から単語への分割方法
手順 1 における複数文書を単語単位に分割する方法を説明する.文書を MeCabで単語ごとに分割する。例えば「本体の前後に 400 万画素 CMOS センサー内蔵カメラをそれぞれ搭載し、全方位撮影できるモデル。」のような文が存在する.この文を MeCabで分割すると「本体の前後に 400 万画素 CMOS センサー内蔵カメラをそれぞれ搭載し、全方位撮影できるモデル。」になるが, 分割しすぎる場合が
ある. 例えば「400」と「万」である.この問題を解決するため連続した名詞を一つの名詞として扱う.この方法で文を処理すると「本体の前後に 400 万画素 CMOS センサー内蔵カメラをそれぞれ搭載し、全方位撮影できるモデル。」となる. その後で, 名詞ではない単語を全部削除する. 以下に手順を示す. 図 1 に例を示す.
手順 1 文を MeCabを用いて分割する。
手順 2 連続の名詞を一つの名詞として扱う.
手順 3 名詞ではない単語を削除する.
処理前
本体の前後に 400 万画素 CMOS センサー内蔵カメラをそれぞれ搭載し、全方位撮影できるモデル。
分割して名詞のみ抽出
本体前後 400 万画素 CMOS センサー内藏カメラそれぞれ搭載方位撮影モデル
図 1 処理結果の例
## 3.3 単語ベクトルの計算
連続の名詞を一つの名詞として扱うので, 連続の名詞ではない単語はそのまま Fasttext[3] を用いて, 単語ベクトルを計算する. 連続名詞の場合では以下の手順で単語ベクトルを計算する。
手順 1 連続の単語を $\mathrm{MeCab}$ で分割する。
手順 2 分割した単語を Fasttext[3] で単語ベクトルを求める. 連続単語に含まれる単語のベクトルの和をその連続単語のベクトルとして扱う。
## 3.4 単語ベクトルモデル
単語ベクトルを求めるとき使ったモデルは Fasttext[3] によって Wikipedia 全データを学習させたものである. Fasttext[3] は隠扎層と出力層からなる 2 層のニューラルネットワークで, CBOW や Skip-gram を用いて, 単語をベクトル化する。
## 3.5Ward 法による階層クラスタリング
階層クラスタリング [4] は最初一つのデータを一つのクラスタとして扱う.そして距離が最も近いクラスタを統合する.この統合をそのまま設定したクラスタ数になるまで繰り返す. Ward 法は二つのクラスタ間の距離を推定する方法の一つである.
## 3.6 クラスタリング結果の score の計算方法
から求める. 情報の密集度 (density $k$ )を式 (2) からそれぞれ求める.クラスタ数 $\mathrm{k}$ での score $_{k}$ はこの 2 つの値を掛け算して求めた值である.これらの数式に現れる変数について説明する. $\mathrm{C}_{k}$ はクラスタ数 $\mathrm{k} て ゙ の$ 表で列の総数である. $\mathrm{C}_{k i}$ はクラスタ数 $\mathrm{k}$ での表に $\mathrm{i}$ 番目の列に含まれる単語の数である. $\mathrm{W}_{k i j}$ はクラスタ数 $\mathrm{k}$ での表の $\mathrm{i}$ 番目の列で $\mathrm{j}$ 番目の単語のベクトルである. 単語の間の類似度は $\cos$ 類似度で求める。
$
\begin{gathered}
\text { cover }_{k}=\frac{\text { クラスタ数 } k \text { での表の空でないセルの数 }}{\text { クラスタ数 } k \text { での表のセルの総数 }} \\
\text { density }_{k}=\min \left(\cos \left(W_{k i j}, W_{k i h}\right)\right) \\
i=1,2, \ldots \ldots, C_{k} \quad j, h=1, \ldots \ldots, C_{k i}
\end{gathered}
$
ここで, cover と density のスケールが異なるため,クラスタ数 $\mathrm{k} て ゙ の$ 表の score を計算するとき影響を与えないように,この二つの値の正規化した値を掛け算したものをクラスタ数 $\mathrm{k}$ での表の score として扱う. そして score が最も大きいクラスタリング結果を選択する.数式にある $\max (\mathrm{x}), \min (\mathrm{x})$ は $\mathrm{x}$ の最大值, 最小値を意味する.
$
\begin{aligned}
& \text { norm }\left(\text { cover }_{k}\right)=\frac{\text { cover }_{k}-\min (\text { Cover })}{\max (\text { Cover })-\min (\text { Cover })}
\end{aligned}
$
$
\begin{aligned}
& \operatorname{score}_{k}=\operatorname{norm}\left(\text { cover }_{k}\right) * \operatorname{norm}\left(\text { density }_{k}\right)
\end{aligned}
$
## 3.7 列に重要度をつける方法
列の重要度の計算は score の計算と似ている. 列の密集度と列のカバー率を掛け算した值をその列の重要度として扱う. 列の密集度は実際その列にある単語間の最小類似度である.この値が高いほど, 列にある単語の関連性が高い.この列の関連性と列のカバー率を掛け算した結果の値が大きいと,この列の重要度も高いと思われる.数式は以下で示す.
$
\begin{gathered}
\text { cover }_{i}=\frac{\text { 表の } i \text { 番目の列の空でないセルの数 }}{\text { 表の } i \text { 番目の列のセルの総数 }} \\
\text { density }_{i}=\min \left(\cos \left(W_{i j}, W_{i h}\right)\right) \\
i=1,2, \ldots \ldots, C \quad j, h=1, \ldots \ldots, C_{i}
\end{gathered}
$
再現率 $=\frac{\text { 正解の表の列と実験結果の表の列に共通する文の数 }}{\text { 正解の表の列に含まれる文の数 }}$
$
F \text { 值 }=\frac{2 \times \text { 適合率 } \times \text { 再現率 }}{\text { 適合率再現率 }}
$
列の重要度を評価することも重要なことである. 強盗に関する記事で作成した表の最初の 48 列を人手で重要かどうかを評価した結果を表 5 に示す. 列名は列に出現する頻度が最も高い単語とする。
表 3 強盗に関する記事の評価結果の精度
表 4 城に関する評価結果の精度
## 4.4 考察
表 3,4 のように, 強盗に関する記事の中で加害者, 被害者, 犯罪時間, 犯罪場所, 犯罪者の特徵などの重要な情報を抽出できた。これらの情報の重要度が高いと思われる. 城に関する記事の中で城の場所, 城が建てられる時間などを抽出できたが, 有益ではない情報(例えば, 指定, 国など)も多く抽出された. 有益ではない情報が抽出された原因はこれらの単語は何も有用な情報を持っていないが, 出現する頻度か高かったからである. 強盗に関する事件で, 抽出された情報が重要かどうかを人手で評価した結果を表 5 に示す. 人手で重要と判断したものに○を, 重要でないと判断したものに
×をつけている.列の重要度が高いほど, 重要と思われる確率が高いと見える. 表 5 を見ると, 最初の 48 列について 12 列ごとに人が重要と思う列の比率を計算
果を見ると, 重要度が高いほど, 人が重要と思う比率も高いことが確認できるが, 城に関する記事を使って,得られた表の列は少ないので, 8 列ごとに計算すると, 0.375,0.375,0.142,0.285である. 重要順になっていない.
## 5 終わりに
本研究の提案手法では文を単語レベルで分割して,名詞だけ残して, Fasttext を用いて, 単語をべクトル化して, 階層クラスタリングを用いて, 表のカバー率と密集度のバランスによって, 最適なクラスタ数を推定して, 最適なクラスタ数で単語をクラスタリングする.クラスタリングした結果の表の列の重要度を計算して,重要な列を自動的に選択する. 城に関する記事と強盗に関する記事を用いて実験を行った. $\mathrm{F}$ 值で提案手法の性能を計算すると, 平均值は 0.82 であった. 提案手法ではクラスタ数を自動的に推定することができる. さらに, 自動的に重要な列を選択することができる. 実験結果では列の重要度が高いほど, 人が重要と思う比率が高いことを強盗に関する記事を使った実験で確認し, 提案手法の有効性を確認できた. 城に関する記事での実験では抽出された列が少なく, 一部の結果は重要順になっていないという問題がある.これは今後の課題である.
## 参考文献
[1]Hokuto Akano, Masaki Murata, and Qing Ma. Detection of inadequate descriptions in Wikipedia using information extraction based on word clustering. IFSA-SCIS 2017, pp. 1-6, 2017.
[2]岡崎健介, 村田真樹, 馬青. 複数文書からの文レベルの情報の書き漏らしの検出. 言語処理学会第 25 回年次大会,
pp. 359-362, 2019.
[3]Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. In Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017.
[4]Trevor Hastie, Robert Tibshirani, and Jerome Friedman. The Elements of Statistical Learning. Springer, 2009. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-3.pdf | # Softmax 関数の出力を利用した 信頼度推定による記述式問題の誤採点の検出
横尾 拓未 $^{1}$ 作田 航平 ${ }^{1}$ 早川 純平 ${ }^{1}$ 倉田 基成 ${ }^{2}$ 森 康久仁 ${ }^{3}$ 須鎗 弘樹 3
1 千葉大学大学院融合理工学府
2 千葉大学工学部
3 千葉大学大学院工学研究院
## 1 はじめに
2020 年度から大学入試センター試験が廃止され,大学入学共通テストが開始された。大学入学共通テストに導入予定であった記述式問題だが,誤採点の可能性を完全に解消することはできないなどの理由から,導入は見送られた。記述式問題の誤採点という課題は大学入学共通テストに限った話ではなく,企業の実施する模試などにおいても不可避な問題の 1 つである.そこで本研究では, 部分点の無い正解・不正解の記述式問題のデータを扱い, 機械学習を用いて,採点済みの解答から誤採点を検出するシステムを提案する。
## 2 関連研究
近年,機械学習を用いた記述式問題における自動採点の研究は増えつつある. 寺田らは SVM や畳み込みニューラルネットワーク (CNN) を用いた自動採点を提案した [1]. 化学 1 題, 生物 1 題, 世界史 1 題, 国語 4 題からなる計 7 題の問題に対してそれぞれ約 250 から 460 解答の採点済みデータを用意し, SVM および n-gram を利用した CNN で leave-one-out 交差検定を用い,正解・不正解の二值分類を行った。 その結果, 全体で $90 \%$ 前後の精度, 最も良い結果で $98.4 \%$ でのクラス分類に成功している. 高井らは LSTM と Attention を用いた自動採点を提案している [2]. 国語, 社会, 理科の計 3 題それぞれ約 1200 解答について約 7 割を学習データ, 約 3 割を検証デー タとし, 正解・不正解の 2 值分類を行なった結果,約 80\% 90\%の精度のクラス分類に成功した. 水本らは部分点を持つ 50 字から 70 字程度の論筆 3 題,随筆 2 , 小説 1 題の計 6 題の国語の記述式問題の項目点予測に取り組んだ [3]. LSTM および Attention 機構を用い,項目点のついたデータを学習すること
で項目点を予測し,また全体点のデータを追加で学習することで項目ごとの性能の向上に成功した。しかし,自動採点の実用性を考えた時,現場では採点精度が限りなく $100 \%$ に近い精度を求められるが, いずれの研究も十分な精度とは言えず,依然として実用レベルに達していない.
機械学習による自動採点では,あらかじめ人間が採点した解答を学習データとして用いる.実際の現場では人によって採点のズレが生じたり,採点を誤る場合がある.採点に摇れが存在する解答を学習データとすることによって, 自動採点の精度向上の妨げとなる可能性がある.そのため,モデルが高精度であればあるほど, $100 \%$ の採点精度に届かない理由が学習データへの信頼性が不十分であるという問題が浮かび上がる. 自動採点で精度を向上させる観点からも,また,採点結果をチェックする観点からも誤採点の検出は必須であると言える.
## 3 提案手法
本節では,採点済みの解答から誤採点を検出するアルゴリズムを提案する。はじめに,本研究では正解・不正解の二值分類となる記述式問題から人間の誤採点を検出することを考える.人間による採点のついた解答 $\left(A_{\text {human }}\right)$ を用意し, 4-fold cross validation にてモデルの学習を行う.学習したモデルによってテストデータに正解・不正解の分類結果 $\left(A_{\text {model }}\right)$ が付与される. その後, $A_{\text {human }}$ と $A_{\text {model }}$ を比較し, $A_{\text {human }} \neq A_{\text {model }}$, すなわち, 人間の採点とモデルの分類が異なった場合に,その解答を誤採点予測データとして抽出する.モデルの解答の分類では, softmax 関数の出力が [ 正解, 不正解 $]=[0.8,0.2]$ のように出力され, 出力值の大きい方の正解・不正解をモデルの結果としている.本手法では,以降,各解答ごとの softmax 関数の出力の大きい方を softmax
值と呼び, 擬似的に信頼度として扱い, 誤採点予測データの絞り込みに利用する。抽出した誤採点予測データには, 表 1 のように,実際に人間の採点が誤っており, 誤採点である解答 (真陽性) だけでなく, モデルが間違って採点した解答 (偽陽性) が存在する.
表 1 誤採点予測データの詳細
本手法では機械学習のモデルに BERT-NN モデルと LSTM-NN モデルの 2 種類のモデルを用い, 実験にてモデルの評価を行った.以下にそのモデルを示す.
・BERT-NN モデル
BRET-NN モデルのモデル図を図 1 に示す. BERT の日本語 Pretrained モデルを用い,文章ごとにベクトルを与える. その後文章ベクトルを入力として学習を行い, 正解/不正解の分類を行う.
図 1 BERT-NN のモデル構造
## ・LSTM-NN モデル
LSTM-NN モデルのモデル図を図 2 に示す.文章を Juman++によって形態素解析し, BERT の日本語 Pretrained モデルを用い,それぞれの単語にベクトルを付与する. その後, 解答ごとに単語ベクトル群を入力とし, LSTM ネットワークで学習を行い, 正解/不正解の分類を行う.
図 2 LSTM-NN のモデル構造
## 4 実験
提案手法の有効性を確認するために,中学生を対象に行われた記述式問題の解答データに対して実験を行った。
## 4.1 実験データ
本研究では国語, 社会, 理科の 3 科目の問題計 3 問についてそれぞれ約 1200 人分の解答を用いた。 これらの解答には人間による正誤の採点結果のラべルがついている。また各教科のデータの詳細を表 2 に示す.ここで解答数については空欄のものを削除した数となっている.
## 4.2 実験方法
本実験では,データセットからランダムに選んだ 10 個の解答に対して, 人間が採点した正解/不正解のラベルを反転させ, 意図的に誤採点を作成した。誤採点とする解答に偏りをなくすため, 10 回実験を行い,モデルが誤採点と指摘した解答数,また実際に検出できた誤採点の解答数を比較し各モデルの評価を行った。評価指標は以下の 2 つを用いた
- 検出率
全 10 問の誤採点の内,実際に検出できた割合
- 指摘精度
誤採点と指摘した解答の内, 実際に誤採点の解
表 2 実験データの詳細
答の占める割合
$
\text { 指摘精度 }=\frac{\text { 真陽性数 }}{\text { 真陽性数 }+ \text { 偽陽性数 }}
$
誤採点と指摘する解答数を増やせば,一定量の偽陽性を認めることで検出率をあげることができる。 したがって誤採点と指摘する解答数を減らした時に,検出率を維持し,指摘精度を向上できることが理想的なモデルと言える。本実験では, BERT-NN モデルと LSTM-NN モデルの 2 つの機械学習のモデルについて,以下に示す実験 1 ,またその結果からモデルを改善した実験 2 を行った。
## 4.3 実験 1
誤採点予測データそのままでは偽陽性が多く存在するため, モデルの出力結果の信頼度が高い解答を選ぶことを考えた. softmax 值があるしきい値以上の確率の解答についてのみを抽出することで絞り込みを行う. softmax 值のしきい值を変え,誤採点と指摘する解答数を変化させた時の, 検出率と指摘精度の関係を見た。
## 4.3.1 結果と考察
国語,社会,理科に対する,誤採点と指摘する解答数を変化させた時の検出率と指摘精度の関係を図 3, 図 4, 図 5 にそれぞれ示す. 最高の検出率は全教科で $80 \%$ を超えていることが見て取れる. また, LSTM-NN モデルの方が BERT-NN モデルよりも最高の検出率が若干高い.
最高の指摘精度は BERT-NN モデルが社会で $30.9 \%$ ,LSTM-NN モデルが国語で $22.1 \%$ とともに低い. 大きい softmax 値を持つ解答を抽出することが, モデルの出力結果の信頼度が高い解答を抽出することにはならず,偽陽性の削減に有効でないことが分かった。また, どの科目でも, LSTM-NN モデルの方が BERT-NN モデルより指摘精度が上がっていないことがわかる.BERT-NN モデルが BERT の学習済みモデルによって均一な方法でベクトル化されるのに対して, LSTM-NN モデルはLSTM の学習によって LSTM 内部の重みが決定され,その重みに
よって偏ったべクトル化が行われる. それによって解答間で softmax 值に偏りができ,softmax 值を信頼度として扱うことに適さなかったと考えられる。
図 3 国語 : 検出率と指摘精度の関係 (実験 1)
図 4 社会 : 検出率と指摘精度の関係 (実験 1)
図 5 理科: 検出率と指摘精度の関係 (実験 1)
## 4.4 実験 2
実験 1 の結果を受け, 等しい条件で softmax 值を評価することを考える。均一にベクトル化できる BERT-NN モデルを用い, 学習データに依存した softmax 值を避けるために, 4-fold cross validation ではなく, 全ての解答でモデルを学習させ,その際の各解答の softmax 値を評価する.検出率が高い LSTM-NN モデルを用いて誤採点予測データを用意し,BERT-NN モデルで全ての解答を学習させた時の, 誤採点予測データの解答それぞれに対応する softmax 值を利用して解答を絞り込む. 誤採点の解答を学習するということは本来したい分類の逆の学習であり, 正しい分類の解答の影響を受け, 誤採点の解答の softmax 値は低くなると予想される。これを利用し,あるしきい值以下の softmax 值を持つ解答を抽出することで誤採点以外の解答を除外し, 指摘精度を向上させる.しきい值となる softmax 值を変え, 指摘する解答数を変化させた時の検出率と指摘精度の関係を見る。
## 4.4.1 結果と考察
国語, 社会, 理科に対し, 誤採点と指摘する解答数を変化させた時の検出率と指摘精度の関係を実験 1 の結果とともに, 図 6 , 図 7 , 図 8 に示す. 実験 2 の手法を手法 2 とする. 図 6 から国語は指摘精度の
図 6 国語 : 検出率と指摘精度の関係 (実験 2)
向上がほとんど見られない.これは国語の解答が表 2 からわかるように総単語数が 597 と多く, 解答ごとに様々なべクトル化がされるためと考えられる.全解答を学習した際, 誤採点の解答が周りの解答の影響を受けることなく誤採点のまま学習されたため, softmax 值が低くならず,しきい値を設けても誤採点を抽出することに繋がらなかったと考えられる. 図 7, 図 8 から社会と理科で実験 1 に比べて,
図 7 社会: 検出率と指摘精度の関係 (実験 2)
図 8 理科 : 検出率と指摘精度の関係 (実験 2)
指摘する解答数を減らした際に,検出率を維持したまま指摘精度を向上させることができた。
## 5 まとめ
実験 2 によって指摘精度の向上に成功した。本研究では全教科で約 90\%の高い誤採点の検出率を実現し, また理科と社会においては誤採点と指摘する解答数を絞り込んだ際に指摘精度を理科で $51 \%$ ,社会では $41 \%$ まで向上させることができた.今後の課題として検出率向上のためのモデルの改善, また,依然残っている偽陽性の削減などが上げられる。また誤採点となる解答を今回はランダムに発生させたが,実際に誤採点しやすいような解答を誤採点のデータセットとするような条件下で再実験する必要があると考える.
## 謝辞
本研究を進めるにあたり,研究を行うための貴重なデータセットを提供してくださった株式会社進学研究会に深く感謝し,心より御礼申し上げます.
## 参考文献
[1]寺田凛太郎, 久保顕大, 柴田知秀, 黒橋禎夫, 大久保智哉 : ニューラルネットワークを用いた記述式問題の自動採点, 言語処理学会, 第 22 回年次大会発表論文, pages 370-373, 2016
[2]高井浩平, 竹谷謙吾, 早川純平, 森康久仁, 須鎗弘樹 : LSTM と Attention を用いた自動採点及び採点支援の実用化に向けて,2I5-J-9-05(3 pages), 人工知能学会第 33 回全国大会論文集,2019
[3]Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, Kentaro Inui : "Analytic Score Prediction and Justification Identification in Automated Short Answer Scoring", Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pages 316-325, 2019 | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-4.pdf | # 自動車免許試験自動解答における単語類似度の影響
的場 成紀 ${ }^{1}$ 田邊 豊 ${ }^{1}$ 小林 一郎 ${ }^{2}$ 平 博順 ${ }^{1}$
1 大阪工業大学大学院 情報科学研究科 2 お茶の水女子大学 基幹研究院 自然科学系
\{m1m19a31, m1m20a21\}@st.oit.ac.jp
koba@is.ocha.ac.jp
hirotoshi.taira@oit.ac.jp
## 1 はじめに
これまで我々は,与えられた文があらかじめ与えられた規則に適合するか否かを自動的に判定する規則適合判定技術の 1 つの例として,普通自動車免許試験問題の自動解答技術について研究を行ってきた [1][2]. 機械読解の研究においては,BERT [3] をはじめとする大規模汎用言語モデルを用いた手法が高い正解率が得られ,広く用いられている. 免許試験問題は,他の多くの機械読解タスクと比べて,与えられる文章が 1 文程度と短いのが大きな特徴である.BERT などの手法が適さない可能性もあったが,模擬問題を利用した BERTによる学習手法では,免許試験問題においても一定の正解率が得られることを実験的に示されていた [1]. しかし,大規模汎用言語モデルを用いた手法では, 出現単語の並びだけで正誤判定がされてしまっている可能性も考えられ,実用的な規則適合判定に BERT 等の手法をそのまま使用できるのか疑問があった.
そこで,本研究では,単語の類似度だけでは正誤判定がしにくい評価用データを作成し,自動解答手法の評価を行って,文を構成する単語が類似していても規則を正しく判定できるのか評価を行った. 自動解答手法には, BERT [3], self-attention + BiLSTM [4], word2vec [5] の 3 つの手法を選び,性能の比較を行った。
## 2 普通自動車免許学科試験問題
普通自動車免許の学科試験は,自動車を運転するときに必要となる運転技術や交通規則に関する知識や運転者のマナーなどが問われる試験である.学科試験で問われる内容として文章問題とイラスト問題が出題され,文章問題は 90 問,イラスト問題は 5 問である. 文章問題は,正誤の二択問題である。
ラスト問題は,運転者から見た車外の様子が描かれたイラストが与えられ,危険予測などに関する問題に解答する問題である.各大問に対して二択問題 3 問が出題される. なお配点は,文章問題は各問 1 点, イラスト問題は各大問に対して完答で 2 点である.合計 100 点満点で,90 点以上が合格となる.
本研究では,学科試験の大部分を占める文章問題を実験の対象とした.また,実際の文章問題には標識や説明のイラストが付与された問題も含まれているが,本研究では主に文章のみで表された規則について扱い,イラストが付与された問題は今回は対象外とした。
## 3 評価用データセットの作成
単語の類似度だけでは規則適合判定が難しくなるように,1)オリジナルの問題文,2)オリジナルの問題文と単語類似度が高く,かつほぼ同じ内容で,正解もオリジナルと一致する問題 3) オリジナルの問題文と単語類似度が高く,ほとんど同じだが,正解がオリジナルと異なる問題の 3 種類のデータが含まれる評価用データセットを作成した。
具体的には, 以下の手順で作成を行った。まず,市販の問題集「試験によく出る普通免許 1000 題」 [6] や「大事なとこだけ総まとめポケット版普通免許試験問題集」[7] を参考にし、問題セット A (7,992 問),問題セット B(103 問,解説文を含む),問題セット C(1,000 問)を作成した。
問題セット A,B,C は参考にした問題が異なるっている。また,問題セット A は,文末の言い回しのバリエーションを多くなるように作成され,問題セット B は,解説文を含んでいるという特徴がある.
つぎに、問題セット $\mathrm{C}$ の先頭 300 問から,図が含まれる問題を除いた 260 問を選び,テスト用問題
表 1 評価用データセットのサイズ
の候補とした. テスト用問題の候補 260 問それぞれについて,問題セット A から文類似度が高い上位 20 問を抽出し,その中から人手で,テストセットの候補の問題と,a) 文意が同じ問題,b) 文意が極めて近いが正解 $(\bigcirc \times)$ が異なる問題,の 2 種類が存在するかどうかを確認した。 その結果,問題セット Bにa),b) の 2 種類とも存在する問題は,260 問中,97 問であった. この97問を最終的なテスト用問題とした。なお,確認に用いた文類似度は,日本語 wikipedia に基づく word2vec ${ }^{1)}$ を用いた単語類似度の平均で求めた。
表 2 に作成されたテスト用問題の問題例を示す。
表 2 テスト用問題の問題例
& 0 \\
訓練用データには,問題セット A と B を合わせた 8,095 問,開発用データには,問題セット $\mathrm{C}$ からテスト用データを除き,図を含む問題も除いた 746 問を用いた。
## 4 評価実験
3 章で作成したデータセットを使用して,免許試験の正誤判定問題について自動解答手法の性能評価を行った. 自動解答手法には大きく,word2vec, selfattention+BiLSTM,BERT の 3 つの手法を比較した. word2vec について日本語モデル2)を利用した.形態素解析器には MeCabを使い, 辞書には NEologd を使った. word2vec を使った正誤問題の解き方として,先に訓練用データと評価用のデータのそれぞれを word2vec で文べクトルに変換した. 文べクトルの変換方法は 1 文を MeCab で単語分割を行ったあとに,word2vec に流して単語べクトルに変換し,文書に出現する全ての単語べクトルの加算平均をと
る.このときの加算平均を文ベクトルとして扱う. その後,評価用データを 1 文ずつ,訓練用データの各文書と $\cos$ 類似度で類似度を測定して,一番類似度の高い問題文を検索する.最後に一番高い問題文の正誤をモデルの出力として扱い,評価用データのラベルと合致するか確認をする。
BERT は日本語 Wikipedia コーパスで事前学習モデルを転移学習した. 形態素解析器には MeCab+WordPiece [8] を使用した。
self-attention + BiLSTM では埋め込み層に BERT の特徴量を取得する方法をとった. BERT の特徴量を得るモデルは転移学習しておいたモデルと事前学習のみのモデルを用意した.比較実験として BERT の特徴量を使わずに学習データから得られる単語の特徴量で学習させた。
図 1 self-attention + BiLSTM(文献 [4] より引用)
## 4.1 実験結果
表 3 は評価用データ全体の正解率と小問 3 問で完答した正解率を表している。表 3 より最も正解率が高かったのは,self-attention + BiLSTM であり,次いで word2vec で正解数が多かった。
## 5 手法による正解した問題の違い
ここでは,手法の違いによってを正解した問題の違いを調べた。
## 5.1 word2vec の手法で正解が多かった 問題
表 4 は word2vec で有意な問題の例である. 問題の例では,数字が「800」か「750」の違いによって正誤が反転している. 問題例のように数字の違いによって問題が正誤が反転している問題では完答ができていなかった。
表 3 評価用データの正解率
表 4 word2vec の手法で正解が多かった問題の例
& $x$ \\
## 5.2 言語モデルの手法で正解が多かった 問題
表 5 は言語モデルで解けて,word2vec で解けなかった問題の例である.この問題の例の「車に乗る前には、車の前後に人がいないかどうかを確かめればよく、車体の下まで確かめる必要はない。」で, word2vec で最も類似度の高い問題では,類義語まで見ることができずに答えることができなかった. 表 6 は類似度の高い順から検索された問題である。このように言語モデルは学習させる際に問題の類義語などが読み取れていることが分かる.
表 5 言語モデルの手法で正解が多かった問題の例
& 0 \\
## 5.3 BERT の単語を埋め込む手法で正解が 多かった問題
表 7 は BERT の単語埋め込みをした selfattention+BiLSTM で有意な問題である。この問題の例では「交差点の手前」と「交差点の直前にさしかかったところ」でといった意味は同じであるが,表現が違う問題も正解していることが分かる。
## 5.4 どの手法でも解けなかった問題
表 8 は,どの手法でも解けなかった問題である. この問題では,「中央」と「右端」のみの違いだけで,問題の正誤が反転している。このように単語のみの変化で細かいところまでは読み解くことができなかった.
## 5.5 言語モデルにおける出力による違い
評価用データで文意と正誤が同じ問題と正誤が違う問題で,言語モデルによって出力結果が正解か不正解に関わらず意図していない問題を調べた。
## 5.5.1言語モデルの出力が反転していた問題
表 9 は,文意と正誤が同じ問題でありながら言語モデルの出力結果が異なっている問題の例である. この問題の特徴として文章の構成が違うことがあげられる。この問題を解く点として「交通整理が行われていない交差点」、「道の幅」、「優先道路」が鍵となるが出現する順番が入れ替わっている。このような問題は言語モデルの出力結果が反転していた.
## 5.5.2言語モデルの出力が同じになった問題
表 10 は,文意が同じで正誤が反転しており,言語モデルの出力結果が同じである問題である. 上の問題の解説を確認してみると「安全地帯がないときは、1人もいなくなるまで、後方で停止します。」となっており,安全地帯の有無によって徐行してよいかどうかが判断基準となっている. このように問題の単語のみの違いで,問題の構成が類似している問題はモデルの出力結果が反転していなかった.
## 6 おわりに
本研究では,普通自動車免許試験の自動解答技術について,規則適合性判定技術の観点から性能評価を行うため,単語の類似度だけでは正誤判定がしにくい評価用データを作成し,自動解答手法の評価を
「車に乗る前には、車の前後に人がいないかどうかを確かめればよく、車体の下まで確かめる必要はない。」
のときの word2vec の上からの検索結果
& 0.990 & 0 \\
表 7 BERT の単語を埋め込む手法で正解が多かった問題の例
表 8 どの手法でも解けなかった問題
& $x$ \\
行った. 自動解答手法として,BERT, self-attention + BiLSTM,word2vec などの手法を選び性能評価を行ったところ,BERT や word2vec による手法は,単語類似度に依存して規則適合性判定を行っている傾向がみられ,self-attention を使った BiLSTM を用いた場合が,最も正解率が高くなった。
## 謝辞
本研究は JSPS 科研費 $18 K 11452$ の助成を受けたものである.
## 参考文献
[1] 的場成紀, 古賀雅樹, 大塚基広, 小林一郎, 平博順. 運転免許試験で使用される語彙と省略語句の分析. 人表 9 言語モデルの出力が反転していた問題
& 0 \\
## 表 10 言語モデルの出力が同じ問題
& $x$ \\
工知能学会全国大会論文集一般社団法人人工知能学会, pp. 1N4J904-1N4J904. 一般社団法人人工知能学会, 2019 .
[2] 的場成紀, 古賀雅樹, 吉村優志, 田邊豊, 小林一郎, 平博順. 運転免許試験自動解答における問題解説文の利用. 言語処理学会第 26 回年次大会 (NLP2020) 発表論文集, pp. 121-124, 2020.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
[4] Zhouhan Lin, Minwei Feng, Cicero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou, and Yoshua Bengio. A structured self-attentive sentence embedding. arXiv preprint arXiv:1703.03130, 2017
[5] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. pp. 3111-3119, 2013.
[6] 倉宣昭. 試験によく出る普通免許 1000 題. 高橋書店, 2007.
[7] 学科試験問題研究所. ポケット版普通免許試験問題集. 永岡書店, 2015 .
[8] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner,
Apurva Shah, Melvin Johnson, Xiaobing Liu, Łukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation, 2016. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-5.pdf | # 大域的・局所的エントロピーに基づいた 特許文書中からの効果述語項構造の自動抽出
邊土名 朝飛 ${ }^{1}$ 野中 尋史 ${ }^{1}$ 河野 誠也 $^{2}$ 谷川 英和 ${ }^{3}$
${ }^{1}$ 長岡技術科学大学 2 奈良先端科学技術大学院大学 ${ }^{3}$ IRD 国際特許事務所
s173348@stn.nagaokaut.ac.jp, nonaka@kjs.nagaokaut.ac.jp,
kawano.seiya.kj0@is.naist.jp, htanigawa@ird-pat.com
## 1 はじめに
特許情報を分析することは,個人の投資活動,企業における技術開発戦略やM\&A,国や地方自治体における政策立案に役立つなど,多大な利益をもたらす。特に特許文書データには重要な新技術の詳細が含まれているため,大きな利用価値がある。しかし,特許文書は技術的な用語が多用されており,また一般的に記述量が多いため,人手で特許文書を読解して分析を実施するためには高度な専門知識と多くの時間が必要となる. そのため, 自動的に技術情報を抽出し分析を行うためのテキストマイニング手法が数多く研究されてきた [1].
特許文書には様々な技術情報が含まれているが, その中でも発明がもたらす効果の情報は,その発明が利用者に与える便益,すなわちニーズを示しているため,技術開発戦略や知財戦略の策定において非常に有用である。そのため,発明の効果を抽出する手法 $[2,3]$ や,抽出した効果を意味的にまとめあげる手法 $[4,5]$ が研究されてきた. 発明の効果に基づいた分析手法のひとつとして, 技術-効果パテントマップが挙げられる. 技術-効果パテントマップとは,技術シーズを表す発明の技術要素と,その技術要素によってもたらされる効果をそれぞれ軸として特許出願状況を可視化したものであり,ニーズ(効果)とシーズ(技術要素)の両方を加味した特許分析を行うことが可能となる.
本研究では,特許文書中から発明の効果を抽出することを目的として, 発明の効果らしい述語項構造 (効果述語項構造)を自動的に抽出する手法を提案する. 述語項構造とは, 述語とその項からなる構造であり,複雑な構造を持つ文章であっても「何を, どうした」といった意味関係を明示的に表現することができる.例えば,「本発明によれば、粘着性物質の付着を防止することができ、メンテナンスを最少限に済すことができる。」という文があったとき, その効果述語項構造は\{メンテナンス [項: Э格], 最小限 $[$ 項:二格] $\} \Rightarrow$ 済すことができる [述語] となる.述語項構造に基づいて効果を抽出することで,単語や句単位で抽出した場合よりも,その効果の意味をより良く捉えることが可能となる。
また,本手法は,述語項構造の発明の効果らしさを,抽出対象となる特許文書集合内での単語エントロピーに基づいて推定する。これにより,効果 [項: ガ格] $\Rightarrow$ ある [述語] といった意味のない述語項構造が抽出されるのを防ぎ,かつ分野によって効果の表現が大きく異なっていても対応することが期待できる.
## 2 関連研究
特許文書から発明の効果を抽出する手法として,「〜ができる。」といった効果を表す文章に頻出する表現(効果手がかり表現)をブートストラップ的に獲得する研究 $[2,3]$ が挙げられる。また,酒井らの手法で抽出された効果手がかり表現から,直接的に効果を表す語(効果語)をパターンに基づいて抽出する研究 [4] も存在する. しかし,これらのブートストラップに基づいた先行研究の手法は,抽出対象となる文章に記載されている効果の表現が,獲得した手がかり表現と僅かにでも異なっていると効果が抽出できなくなるという問題がある。
一方,谷中らは,特許文書から発明の効果の要点を抽出するために,「本発明は... する」という形式で記述された文章から,述語項構造解析を用いて 「本発明」を主語とする動詞と目的語を抽出している [5]. 谷中らの方法は,述語項構造に基づいているため,複雑な文であっても発明が技術課題に及ぼす効果を明示的に表現することができ,かつ様々な
パターンの記述に対応できる. しかしながら,効果を示す動詞,目的語が「本発明」を主語としない場合は抽出することができない.また,「ものである」「こととする」といった意味を持たない句を取り除くために,「もの」「こと」「課題」などの形式的内容語 [6] を事前に収集する必要がある.
本研究では,特許明細書中の項目「発明の効果」 に含まれる文から最も効果らしい述語項構造を抽出することで,文章の記述形式を限定することなく発明の効果を抽出する手法を提案する.また,本手法では,述語項構造の効果らしさを単語エントロピー に基づいて推定するため,形式的内容語の収集を必要としない.
## 3 提案手法
特許文書中から発明の効果を抽出するために,特許明細書中の項目「発明の効果」に含まれる文(効果文) から最も効果らしい述語項構造(効果述語項構造)を自動的に抽出する手法を提案する. 提案手法の概要を図 1 に示し,手続きの詳細を以下に示す.
Step 1: $L_{t=0} \longleftarrow-$ inf
Step 2:「発明の効果」に含まれている単語から大域的エントロピースコア $H_{G}\left(w_{i}\right)$ を計算
Step 3: 各効果文に対し述語項構造解析を行い,各効果文から効果述語項構造候補を抽出
Step 4: 効果述語項構造候補に含まれている単語から局所的エントロピースコア $H_{L}\left(w_{i}\right)$ を計算
Step 5: 効果述語項構造候補集合の効果らしさ $L_{t}$ を計算
Step 6: $L_{t}>L_{t-1}$ であればノイズ単語を除去そうでなければ Step 9へ
Step 7: $t=t+1$
Step 8: Step 3 から繰り返す
Step 9: 各効果文から効果述語項構造を抽出
なお,Step 2,4 のエントロピーの計算に関しては 3.1 節で,Step 3 の効果述語項構造候補の抽出に関しては 3.2 節で,ノイズ単語除去に関しては 3.3 節でそれぞれ説明する。
本手法の特徴は,大域的な単語エントロピーで効果語らしさを, 局所的な単語エントロピーでノイズ単語らしさを推定し,それに基づいて効果文から効果述語項構造を抽出する点にある.
単語 $w_{i}$ の大域的エントロピースコア $H_{G}\left(w_{i}\right)$ は,「発明の効果」に含まれる単語から求める。大域的エントロピースコア $H_{G}\left(w_{i}\right)$ が高い単語は「発明の効果」に出現しやすい単語であり,すなわち効果語である可能性が高い. したがって,高エントロピー の単語を含む述語項構造も効果を表している可能性が高いと考えられる. しかし,大域的エントロピー スコア $H_{G}\left(w_{i}\right)$ では,「発明の効果」に出現しやすい 「もの」「発明」「効果」などの意味を持たない単語のスコアも高くなり,「効果-ある」といった意味を持たない述語項構造を抽出してしまう恐れがある.
このようなノイズ単語を除去するために,局所的な単語のエントロピースコア $H_{L}\left(w_{i}\right)$ を利用する。単語 $w_{i}$ の局所的エントロピースコア $H_{L}\left(w_{i}\right)$ は,各効果文から抽出された効果述語項構造候補に含まれる単語から求める.「効果」といったノイズ単語は,効果述語項構造候補における出現頻度が非常に高いと考えられるので,高エントロピーの単語をノイズ単語として除去していく.
図 1 提案手法の概要図
## 3.1 大域的・局所的エントロピー
単語 $w_{i}$ の大域的エントロピースコア $H_{G}\left(w_{i}\right)$ は,以下の式で求める。
$
\begin{aligned}
H_{G}\left(w_{i}\right) & =-\sum_{d \in D} P_{d}\left(w_{i}\right) \log _{2} P_{d}\left(w_{i}\right) \\
P_{d}\left(w_{i}\right) & =\frac{f_{d}\left(w_{i}\right)}{\sum_{d^{\prime} \in D} f_{d^{\prime}}\left(w_{i}\right)}
\end{aligned}
$
ここで,D は各特許文書に記述されている「発明の効果」文章の集合, $P_{d}\left(w_{i}\right)$ は特許文書 $d$ の「発明の効果」内に単語 $w_{i}$ が出現する確率, $f_{d}\left(w_{i}\right)$ は特許文書 $d$ の「発明の効果」内に単語 $w_{i}$ が出現する頻度である。
単語 $w_{i}$ の局所的エントロピースコア $H_{L}\left(w_{i}\right)$ は,
以下の式で求める.
$
\begin{aligned}
H_{L}\left(w_{i}\right) & =-\sum_{s \in S_{E}} P_{S}\left(w_{i}\right) \log _{2} P_{S}\left(w_{i}\right) \\
P_{s}\left(w_{i}\right) & =\frac{f_{s}\left(w_{i}\right)}{\sum_{s^{\prime} \in S} f_{s^{\prime}}\left(w_{i}\right)}
\end{aligned}
$
ここで, $S_{E}$ は効果述語項構造候補集合である. 効果述語項構造候補は,効果文 1 文から 1 個抽出される (3.2 節)。また, $P_{s}\left(w_{i}\right)$ は効果述語項構造候補 $s$ 内に単語 $w_{i}$ が出現する確率, $f_{s}\left(w_{i}\right)$ は効果述語項構造候補 $s$ 内に単語 $w_{i}$ が出現する頻度である.
なお, 本研究では, 名詞, 動詞, 形容詞, 形状詞の単語のみを使用してエントロピーを計算している.
## 3.2 効果述語項構造候補の抽出
効果文から効果述語項構造候補を抽出するために,述語項構造のスコアリングを行う,スコアリングした後, その効果文内で最も高いスコアを持つ述語項構造を,効果述語項構造候補として抽出する.
ある 1 つの効果文 $e$ に含まれる述語項構造の集合を $S_{e}=\left.\{s_{1}, s_{2}, \cdots, s_{i}, \cdots, s_{N}\right.\}$ としたとき,前方から $i$ 番目の述語項構造 $s_{i}$ の大域的スコア Score $G_{G}\left(s_{i}\right)$ を以下の式で定義する。
$
\operatorname{Score}_{G}\left(s_{i}\right)=\frac{1}{\left|S_{e}\right|-i+1} \max _{w_{j} \in \mathscr{V}\left(s_{i}\right)} H_{G}\left(w_{j}\right)
$
ここで, $\left|S_{e}\right|$ は効果文 $e$ に含まれている述語項構造の個数, $\mathscr{V}\left(s_{i}\right)$ は述語項構造 $s_{i}$ に含まれている単語の集合である。文中で効果について言及している箇所は一般的に文の後方に位置するため, 述語項構造 $s_{i}$ の後方からの位置の逆数 $\frac{1}{\left|S_{e}\right|-i+1}$ をエントロピー スコアにかけることで重み付けしている.
## 3.3 ノイズ単語の除去
効果述語項構造候補から, 効果 $\Rightarrow$ あるといった意味を持たない述語項構造を抽出しないようにするために,ノイズ単語を自動的に除去する.
まず,効果述語項構造候補を抽出(3.2 節)した後, 単語の局所的エントロピースコア $H_{L}\left(w_{j}\right)$ を計算する (3.1 節). 次に, 各効果述語項構造候補 $s_{i}$ の局所的スコア $\operatorname{Score}_{L}\left(s_{i}\right)$ を以下の式で求める.
$
\operatorname{Score}_{L}\left(s_{i}\right)=\max _{w_{j} \in \mathscr{V}\left(s_{i}\right)} H_{L}\left(w_{j}\right)
$
次に, 効果述語項構造候補集合 $S_{E}$ の効果らしさを,以下の式で求める.
$
L_{t}=\sum_{s \in S_{E}} \operatorname{Score}_{G}(s)-\operatorname{Score}_{L}(s)
$
$L_{t}$ の值は,効果らしい効果述語項構造候補が多く抽出されている場合には高く, ノイズらしいものが多く抽出されている場合には低くなる. このとき, $L_{t}$ が 1 step 前の $L_{t-1}$ より高くなれば,局所的エントロピースコア $H_{L}\left(w_{j}\right)$ が最も高い単語をノイズ単語として除去し,再度ノイズ単語除去の処理を行う.この繰り返し処理により, 効果語らしい単語だけが残り,効果述語項構造が抽出されやすくなると考えられる。
## 4 評価実験
## 4.1 データセット
NTCIR-6 の日本語公開特許公報全文データ1)(期間:1993 2002 年,文書数:3,496,252 件)から,国際特許分類の $\mathrm{C} 22 \mathrm{C}$ (合金分野) に属する特許 97 件を選択し,それらに記述されている「発明の効果」 の文 234 件を評価用データとして用いた。
正解データとして,上記の 234 件の文に対して効果を記述している箇所にタグ付けしたものを用いた. 文内に複数の効果が記述されている場合は,それぞれ独立してタグを付与している. タグ付け作業は 2 名のアノテーターの合議により行われた。
## 4.2 実験条件
効果が正しく抽出されたかの判定は,2 名の合議に基づいて正否を判断する人手評価を実施した. また,1 文に複数の効果が含まれていた場合, その全ての効果を抽出していれば正解とする評価 (all) と, 1 件でも効果が抽出できていれば正解とする評価 (partial) をそれぞれ行った。評価指標は, Precision( $\mathrm{P})$ , Recall( $\mathrm{R}) , \mathrm{~F}$ 値 $\left(F_{1}\right)$ を用いた。各評価指標の式を以下に示す.
$
P=\frac{|C|}{|E|}, R=\frac{|C|}{|T|}, F_{1}=\frac{2 P R}{P+R}
$
ここで, $C$ は正しく抽出できた効果の集合, $E$ は抽出した効果の集合, $T$ は効果が含まれている文の集合である。
本実験では,格フレーム [7] に基づく述語項構造解析ツールの $\mathrm{KNP}^{2}$ を使用した。また,単語エントロピーの計算時に用いる形態素解析器には Sudachi[8] を使用し,表記ゆれを吸収するために単語の正規化を行った。
比較手法として, 効果文の最末尾の述語項構造を抽出する手法 (LAST-PAS) と, 坂地らの Cross-Bootstrapping 法 [3] を採用した。
## 5 実験結果および考察
表 1 に評価結果を示す. 提案手法は, all, partial の両方で最も高い $\mathrm{F}$ 值を示した. 最末尾から述語項構造を抽出する手法を比較すると, all において F 值が 1.5 ポイント, partial において 3.4 ポイント向上している。これは, 文末尾に存在する不要な述語項構造が,ノイズ単語が除去されたことにより抽出されなくなったためだと考えられる.
坂地らの手法は,Precision が最も高いものの,効果を抽出するために利用する手がかり表現を含んだ文の件数は 59 文 $/ 242$ 文 (24.4\%) に留まっており, Recall は最も低い結果となった。一方,提案手法は述語項構造解析結果に基づいて効果を抽出しているため,様々な記述パターンに対応することができ,結果として Recall と $\mathrm{F}$ 値が最も高くなったと考えられる。
表 1 効果抽出の評価結果
## 5.1 エラー分析
提案手法 (partial) における誤抽出の分類および件数を表 2 に示す. 効果を含む文からの誤抽出では,部分的に失敗のケースが最も多かった。部分的失敗とは,効果を表す一部語句が欠落したタイプの誤抽出であり,例えば「高率放電特性に優れた蓄電池を得ることができる。」という文章から優れた蓄電池 $\Rightarrow$ 得ることができるのみが抽出され,効果として重要な「高率放電特性」が含まれていないケースである.この場合,述語項構造の項に係っている修飾節の取得範囲を広げることで対処することで改善できると考えられる。
一方,効果を含まない文からの誤抽出は,完全に失敗のケースが最も多く,次に非重要効果を抽出したケースが多かった。「発明の効果」において,(1)最初に発明の構成を示し, 次に (2) 重要ではない細
かな効果を述べ,最後に (3) 重要な効果を述べる, という記述パターンが存在するが,先述の誤抽出は主に (1),(2)に属する文から抽出されたものである. この場合,「発明の効果」内の談話構造を考慮することで誤抽出を低減できると考えられる。
表 2 提案手法 (partial) における誤抽出の分類と件数
## 5.2 ノイズ単語
本手法により自動的に除去されたノイズ単語 29 個を以下に示す。
一自動的に除去されたノイズ単語
する,こと,できる, 合金, 製造, なる, 水素, 得る,吸蔵, ある, 可能, 発明, 金属, 材料, 優れる, 向上,化合, 有する, 効果, 特性, 用いる, 方法, 提供, コスト, もの, 容易, 形状, 良好, 安価
上記のノイズ単語を見ると,後半に「安価」「コス卜」という直接的に効果を表している語が除去されてしまっているものの,その他の単語は「する」「こと」「効果」など,意味を持たない形式的内容語を中心に除去されていることが分かる。また,「合金」「水素」「金属」など,分野特有の単語も除去されている. 今回対象としているのは合金分野の特許であり,上記のような分野特有の単語を含む効果,例えば「水素吸蔵合金を製造することができる」が抽出されたとしても分析上有用な情報であるとはいえないため,除去されたのは妥当と考えられる。
## 6 まとめ
本研究では, 特許文書の項目「発明の効果」から,単語の大域的・局所的エントロピーを利用して発明の効果らしい述語項構造を自動的に抽出する手法を提案した. 合金分野の特許を対象に評価実験を行った結果,提案手法は 2 種類の比較手法よりも高い $\mathrm{F}$値を示した. 今後の課題として, 抽出した効果述語項構造をクラスタリングし,効果をまとめ上げることが挙げられる.
## 参考文献
[1] Longhui Zhang, Lei Li, and Tao Li. Patent mining: A survey. SIGKDD Explor. Newsl., Vol. 16, No. 2, p. 1-19, May 2015.
[2] 酒井浩之, 野中尋史, 増山繁. 特許明細書からの技術課題情報の抽出. 人工知能学会論文誌, Vol. 24, No. 6, pp. 531-540, 2009.
[3] 坂地泰紀, 野中尋史, 酒井浩之, 増山繁. Crossbootstrapping : 特許文書からの課題・効果表現対の自動抽出手法. 電子情報通信学会論文誌. D, Vol. 93, No. 6, pp. 742-755, 2010.
[4] H. Nonaka, A. Kobayahi, H. Sakaji, Y. Suzuki, H. Sakai, and S. Masuyama. Extraction of the effect and the technology terms from a patent document. In The 40th International Conference on Computers Indutrial Engineering, pp. 1-6, 2010.
[5] 谷中瞳, 大澤幸生. 特許文献を利用した技術課題の抽象化方法の検討. 人工知能学会全国大会論文集, Vol. JSAI2016, pp. 1J32-1J32, 2016.
[6] 滝川和樹, 山本和英. 構文片の改良と評判分析への適用. 言語処理学会第 17 回年次大会発表論文集, pp. 111-114, 2011
[7] 河原大輔, 黒橋禎夫. 自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル. 自然言語処理, Vol. 14, No. 4, pp. 67-81, 2007.
[8] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Paris, France, 2018. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-6.pdf | # スケジュール登録のための発話文解析
藤井良介
鳥取大学工学部
jcyhbb@gmail.com
}
徳久雅人
鳥取大学工学部
tokuhisa@tottori-u.ac.jp
}
木村周平
鳥取大学工学部
kimura@tottori-u.ac.jp
## 1 はじめに
自動車の中などキーボードが使用しにくい状況において,スケジュールのメモをとるためには音声による入力が一つの手段である. 運転の直前に追加された予定は運転に集中していると忘れやすいため, メモをとることができていれば行き忘れることを防止できる.
スケジュールという情報は,「日時(開始, 終了),場所 (出発, 到着), 用件」という 5 つの項目の組の系列である. スケジュールの登録のための発話文の解析においては, 日時や場所の表現抽出,および,開始/終了等の下位分類の判定が必要となる. 本稿では,これらの解析を行う手法を示す。
## 2 スケジュール登録の発話
## 2.1 例題
スケジュールを登録する発話の例を見ながら,処理目標を解説する.
## 例)
設定日時:2020 年 5 月 13 日 8:12
設定場所:自宅駐車場
入力文 $1: 10$ 時半から大学でゼミがあります
入力文 $2: 16$ 時に自宅に帰ります
スケジュール表:
& *** & 帰ります \\
& 自宅 & \\
$※$ 日時列上行 $=$ 開始, 日時列下行 $=$ 終了場所列上行 $=$ 出発, 場所列下行 $=$ 到着 \# はレコード番号
まず,発話時の設定として,発話の日時および場所が与えられるものとする。 次に,発話文が $2 \supset$ つ力される. 文 1 の解析の際,日付は設定日時と同一と仮定する.時刻を文中から取得する。「〜から」 なので開始の日時とみなす. 場所は「大学」である.用件は「ゼミ」である. ゼミの間,場所の変化はないので,「出発, 到着」の区別がない. スケジュール表のレコード\#1 が埋められる. このレコード\#1を基準として, 文 2 の解析を行う. 次に, 文 2 の開始日時は不明である。終了日時は「16時」である. 文 2 から直接的に得られる場所は「自宅」であり,到着場所と解釈する. こうしてレコード\# 2 が生成される。
## 2.2 分析用コーパス
発話文とスケジュールを収録したコーパスは構築済みである [1]. 発話文には,日時タグ<tmg>,場所タグ<loc>,および助詞タグ<p>が付与されている。
## 3 解析手法
## 3.1 概要
本稿では以下の手順で発話文の解析を行う.
手順 1 . 意図解析
手順 2. スロットフィリング
手順 3. 開始/終了, 出発/到着の判定
手順 1 および手順 2 を [2] の手法で解析する. 以下に実行例を示す.
入力文:
10 時半から大学でゼミがあります
意図:
serviceScheduler . comInformEvent (loc, tmg)
スロット:
loc="大学"=[6,7]
tmg="10 時半" $=[0,1,2,3]$
ここで,意図は事象の伝達という意味である. スケジュールサービス (serviceScheduler) はドメイン
である. 次に loc および tmg がスロット名である.数値は文字番目である.
手順 3 についてはルールベースによる解析を行う (詳細は次節で述べる)。
「locで十あり」というパターンの適用により, loc の示す場所が「出発, 到着」の場所と判定される.「 tmg から十あり」というパターンの適用により 「開始」の日時として解析される。
## 3.2 開始/終了,出発/到着の判定
助詞の意味は係先の動詞に依存することに注意し $\tau$, 「開始/終了, 出発/到着」という日時や場所の下位分類の判定を行う. しかし, 日本語の基本用言が約 6,000 語存在するため「助詞と動詞のペア」を準備することは効率が悪い. 助詞だけで判断が可能な場合は「助詞と動詞のペア」での判定を避けておきたい. そのため本稿では次の 2 種類のルールセットを作成する。
・助詞十動詞によるルールセット
・助詞によるルールセット
ここで,処理の起点が,スロット $\mathrm{tmg}$ の下位分類を求める,もしくは, スロット loc の下位分類を求める,ということであるため,助詞の意味が時間的か場所的かという判断は不要である.
分析用コーパスにおいて出現した表現について分析を行った結果を次節以降で説明する。
## 3.2.1 助詞十動詞によるルールセットの作成
時間的表現について動詞の考慮が必要であった助詞は「に」であった。例を示す.
例文 $1: 10$ 時に出発します(開始)
例文 $2: 12$ 時に到着します(終了)
出発や到着という動詞は, 移動の事象における端点を指す. その端点の時間を「に」で示すため,事象の時間帯の「開始」と「終了」という解釈がされやすいと,本稿ではまとめた。
分析用コーパスから対応する表現を列挙したものを表 1 に示す。なお,次節で示すが,「に」の時間的下位分類を「開始」とするので,運用上は終了のパターンのみを使用する。
場所について動詞の考慮が必要な助詞は存在しなかった.表 1 助詞十動詞型の時間的下位分類ルールセットの作成
\\
## 3.2.2 助詞によるルールセットの作成
時間的表現について,分析用コーパスでは次の助詞が用いられていた.
「は,の,に,まで,から,には」
各助詞の下位分類を定める基準を次のとおりとする。
・助詞だけを見て開始/終了が明確であればその通りとする。
・不明確であれば明確な助詞に置き換えて例文を参照し判断する.
上記の基準に従うと,まず,時間の流れを表す助詞として「から」,「まで」に注目する。「から」を「開始」「まで」を「終了」とする.次に,不明確であった助詞のうち,例えば「は」については次の文を参照する。
例文:あさっては東京に出張です.
例文の「あさっては」を「あさってから」に置き換えてもスケジュールの内容は変化しない。「あさってまで」に置き換えると異なる内容になる。ゆえに「は」の時間的下位分類を「開始」と判断した.時間的下位分類を判定する助詞の分類を表 2 にまとめる.
表 2 助詞型の時間的下位分類ルールセット
場所について,分析用コーパスでは次の助詞が用いられていた。
「から,を,に,まで,で,へ」
各助詞の下位分類を定める基準は,上記の時間的表現の場合と同様である。すなわち,まず,「から」 と「まで」はそれぞれ出発と到着を明確に表す助詞と判断する。次に,不明確であった助詞を例文を見ながら判断する。
例文:あした東京を出発します
例文の「東京を」を「東京から」に置き換えてもスケジュールの内容は変化しない。「東京まで」に置き換えると異なる内容になる。ゆえに「を」の場所的下位分類は「出発」と判断した.
次に「で」について例文を見ながら判断する。
例文 1 : 東京で用事があります
例文 2 : 東京で観光します
例文 1 の「用事 $\lrcorner$ ,例文 2 の「観光」の間,場所の変化がない,または,一定の範囲内である。「出発」と 「到着」のどちらにも属するものであると判断した.
例文 3 : 新宿で高速バスに乗ります
例文 3 ではバスの移動をイメージすると「新宿」 が出発点と解釈することになるが,「乗る」という瞬間的な事象に対する解釈を行うので,「出発」と 「到着」のどちらにも属するものであると判断した。場所的下位分類を判定する助詞の分類を表 3 にまとめる.
表 3 助詞型の場所的下位分類ルールセット
到着まで,へ,に
出発, 到着で
## 4 前処理
発話文解析の背景にある処理および発話文へのクリーニング処理について述べる。
## 4.1 場所名
発話文解析において場所を表す表現の抽出が一つの問題となる. 本稿においては,場所名(店名など)が辞書に登録済みの状態で議論を進めた。
場所名が既知であることを前提にできる根拠は,本稿の解析手法がユーザ適応型の車載器での利用を想定しているためである. 車載器には, 駐車地点の名称を収集する機能が備わる。 ユーザが話題にする場所名は蓄積される。また,スケジュール登録時に新規の場所を話題にする際に場所名の登録を行う対話を開始することが可能である。
## 4.2 発話文のクリーニング
入力される発話文に対して次の処理を行う.
・漢数字や全角数字を半角アラビア数字に変換
・時間表現「hh:mm」を「hh 時 $\mathrm{mm}$ 分」に変換
・句読点の除去
## 5 実験
## 5.1 実験方法
分析用コーパスからタグを外したものを用いた実験,すなわちクローズドテストを行う.入力文は 331 文である. 1 文につき 1 つの 5 つ組を目標出力とする. 3.1 節の 3 つの手順で処理した結果について正答率を確認する。
## 5.2 実験結果
正答率は $79 \%$ (正解文数 263 /大力文数 331)となった。
解析例を示す.文 1 において「ご飯に行きます」とある.もし「ご飯」(抽象)を場所として抽出すると誤りであるが,本処理では正しく処理されていた。文 2 において,「明日」という表現から日付の算出ができており,「映画館」を到着場所として解析できていた.
## 例)
設定日時:2020 年 5 月 13 日 8:12
設定場所 : 自宅駐車場
入力文 $1:$ 午後 7 時から友達とご飯に行きます
入力文 $2:$ 明日の午前 10 時から映画館に行きます
スケジュール表:
& & \\
## 5.3 誤り分析
誤り事例を分析した結果を表 4 に示す. 各誤りパターンについて説明する。
誤り $e 1$ について,相対的な時間的表現とは例えば「部会後」というものがある. 例を以下に示す.例)
設定日時:2020 年 5 月 13 日 9:00
設定場所:自宅
入力文 1 : 今日の夕方 6 時から部会があります
入力文 $2:$ 部会後に先輩の家で遊びます
スケジュール表(出力)
& $* * *$ & 部会が \\
あ** & あります \\
スケジュール表(目標)
& & \\
スケジュール表の出力と目標を比較すると,レコード\#2 の開始時刻が誤っていた。部会にかかる時間を推定する必要があるが,文外情報であるので解くことができなかった.
誤り $e 2$ について幅のある時間的表現とは例えば 「昼に」というものがある. 例を以下に示す.
例)
設定日時:2020 年 5 月 13 日 10:00
設定場所:自宅
入力文 $1:$ 昼に友達と遊びます
スケジュール表(出力)
スケジュール表(目標)
スケジュール表の出力と目標を比較すると,開始時刻が誤っていた。「昼の 1 時」に対して「13 時」 という変換は可能だが「(単に) 昼」に対して「12 時」をデフォルト值として変換することができていなかった。
誤り $e 3$ について場所のスロットフィリングに失敗が見られた。例を以下に示す
例)
入力文 1 :
29 時に別のバイト先に出勤します
意図(出力):
serviceScheduler . comInformEvent (tmg)
スロット(出力):
$\mathrm{tmg}=$ "29 時"
意図(目標):
serviceScheduler . comInformEvent (loc, tmg)
スロット(目標):
## $\mathrm{tmg=$ "29 時"}
## loc="別のバイト先"
「バイト先」は日本語語彙大系 [3] における意味属性で解析すると「抽象十場所」である.抽象を含む名詞句を「場所」として解析できていなかったため,スロットフィリングに失敗していた。
以上の誤り分析の結果,時間的表現から日時を特定する処理の不足,および,スロットフィリングに用いる意味属性のカバー範囲の調整不足という問題が確認された.しかし,時間的/場所的下位分類の判定における誤りはみられなかった。
表 4 誤り事例の分類結果
## 6 おわりに
本稿では,スケジュール登録のための発話文解析において,スケジュールを構成する情報の抽出を試みた。クローズドテストにおいて正答率 $79 \%$ で解析された. 誤り分析の結果,日時変換,および,場所のスロットフィリングに改良すべき点がみられた. 時間的/場所的下位分類の判定においては, ルールセットが良好であることが確認できた.
## 謝辞
本研究 JSPS 科研費 JP19K12548 の助成を受けたものです.
## 参考文献
[1] 石川玩己,徳久雅人,木村周平: スケジュール登録のための発話文コーパスの設計,言語処理学会年次大会講演論文集,pp.213-216,2020.
[2] 徳久雅人,木村周平: 小型計算機におけるサービス指向発話文解析,自然言語処理,26(3),pp.545-578, 2019.
[3] 池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦:日本語語彙大系,岩波書店, 1997. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-7.pdf | # 隠れ層補間によるデータ拡張を用いた 障害レポート分類
山下 郁海 ${ }^{1}$ 小町 守 1 真鍋 章 2 谷本 恒野 ${ }^{2}$
1 東京都立大学 2 富士電機株式会社
yamashita-ikumi@ed.tmu.ac.jp, komachi@tmu.ac.jp
\{manabe-akira, tanimoto-kouya\}@fujielectric.com
## 1 はじめに
近年,小規模なラベルありデータしか存在しないテキスト分類に対する研究が盛んに行われている $[1,2,3]$. これらの手法では対象となる分野のラベルなしデータを用意し, 事前学習やデータ拡張に用いることで,大きな性能の向上が報告されている.
一方,本研究で扱う日本語の障害レポートはラベルありデータが少なく,また対象となる分野のラべルなしデータの用意も権利の関係で難しいデータである。また,障害レポートは特定の分野に関しての記述であり,例えば Wikipedia のような大規模なデータが入手可能なラベルなしデータとは大きく分野が異なる [4]. そのため,対象となる分野,もしくはそれに近い分野のラベルなしデータが必要になるような手法を適用することが難しい.
そこで本研究では, Chen ら [5] による隠れ層線形補間を用いたデータ拡張手法 TMix を用いて実験を行った. TMix は, 入力文の隠れ状態べクトルを線形補間することでデータ拡張を行う,追加のデータを必要としないデータ拡張手法であり,本研究で扱う障害レポートの分類問題に対しても適用が比較的容易である。
TMix を用いて障害レポートに対して分類実験を行った結果,TMix を用いない場合と比較して性能の向上が確認された.また,分類の対象とは異なる分野のラベルなしデータを用意し,TMixをもとにした半教師あり学習を行うことで,さらなる性能の向上を確認し, 対象分野のラベルありデータと, 対象となる分野とは異なる分野のラベルなしデータを線形補間して学習に用いることで性能向上が可能であることを示した。
## 2 関連研究
## 2.1 線形補間によるデータ拡張
線形補間によるデータ拡張は,近年画像分類の分野において盛んに研究されている. Zhang ら [6] は入力画像のベクトルとそのラベルをそれぞれ線形補間した上で学習を行うことで,性能向上を図る手法 mixup を 2017 年に提案している. その後, Berthelot ら [7] は mixup を用いた半教師あり画像分類手法 MixMatch を提案し,Verma ら [8] はこれまで入力のベクトルのみに行っていた線形補間を,隠れ状態べクトルに拡張することで性能が向上することを報告している。
これらの研究はどれも線形補間を用いたデータ拡張の研究ではあるが,本研究とは異なり,全て画像分類の分野の研究であり, 本研究では, これらの研究をもとにChen ら [5] の提案した,テキストデータのための線形補間を用いたデータ拡張手法を用いて実験を行う。
## 2.2 小規模なラベルありデータに対するテ キスト分類
小規模なラベルありデータに対するテキスト分類のための手法のうちの 1 つとして,ラベルなしデータを用いた事前学習の研究が行われている。 Gururangan ら [3] は, 分類の対象となる分野のラべルなしデータを用いて,Variational autoencoderを事前学習し,そこから得られる embedding を入力文の単語ベクトルと足し合わせて,テキスト分類の入力として用いることで分類性能の向上を図っている.
また,別の手法として,ラベルなしデータを用いた半教師あり学習の研究も行われている. Chen ら [1] と,Xie ら [2] は,どちらも対象となる分野の
図 1 TMix [5] の概要図.
ラベルなしデータに対して逆翻訳をすることでデー タ拡張を行い,それらのラベルなしデータを用いた半教師あり学習の手法を提案している. これらの研究は本研究とは異なり,どれも性能向上のために対象となる分野のラベルなしデータが入手できることを想定している。
## 3 障害レポート分類のためのデータ 拡張
## 3.1 隠れ層の補間:TMix
本研究では,障害レポートの分類問題を解くにあたって,画像分類の分野におけるデータ拡張手法 mixup [6] をとに,Chen ら [5] がテキストデータを扱えるように改良したしたデータ拡張手法 TMix を用いている. TMix の概要図を図 1 に示す. TMix は,BERT [9]のような多層モデルを用いる際に,入力文の隠れ状態べクトルを線形補間することでテキストデータの拡張を行う手法である. 図 1 では,まず 2 の異なる文 $x, x^{\prime}$ を入力とし, 第 $m$ 層まで通常の手順でそれぞれの隠れ状態べクトル $h, h^{\prime}$ の計算を行う. 次に,2つの文の隠れ状態ベクトルを線形補間し,以下の式に示す $\tilde{h}$ を得る。
$
\tilde{h}=\lambda h+(1-\lambda) h^{\prime}
$
ここで補間係数 $\lambda$ はベータ分布 $\operatorname{Beta}(\alpha, \alpha)$ に基づいて選択される。 $\alpha$ は補間係数をコントロールするためのハイパーパラメータである. その後の層での計算は,この新しく得た隠れ状態べクトル $\tilde{h} を$ 用いて行う。また,ラベルに関しても隠れ状態を線形補間する際に用いた係数と同じ補間係数 $\lambda$ を用いて補間を行い,以下の式に示す $\tilde{y}$ 計算する。
$
\tilde{y}=\lambda y+(1-\lambda) y^{\prime}
$
ここで $y, y^{\prime}$ はそれぞれ入力 $x, x^{\prime}$ に対応するラベルである.
学習データ中の入力文の組み合わせは無数に存在するため,TMix を用いることで,追加のデータを用いることなく,新しく拡張されたデータを多数作成することが可能である.また,学習文に対して全てのデータを補間するだけでなく,ランダムで補間するかどうかを選択することで,一部のデータに対して元のデータの隠れ状態を用いて学習を行うことも可能である.そのため本研究では,全てのデータを補間する設定と,補間するかどうかをランダムに選択し一部データを補間する設定の 2 つの設定で実験を行なっている.
## 3.2 TMix を用いた半教師あり学習
Chen ら [5] は TMix によるデータ拡張とラベルなしデータを組み合わせたテキスト分類に対する半教師あり学習の手法を提案しており, 本研究でもそれにならい半教師あり学習を行う1).
この手法ではまず,ラベルなしデータに対してその時点での分類器でラベルの予測を行う. その後, ラベルを予測したこれらのデータを追加のラベルありデータとして,通常のラベルありデータと同様に TMix を用いて扱う。この際に,ラベルありデー タをもとに補間を行った場合と,新たにラベルを予測したラベルなしデータをもとに補間を行った場合で, loss の計算が異なる. すなわち,ラベルありデータを用いた場合は Cross-entropy が最小となるように,ラベルなしデータを用いた場合は,線形補間された入力文の隠れ状態ベクトルからモデルの予測した確率分布と,線形補間されたラベルの間の KL ダイバージェンスが最小となるように学習を行う.
また,モデルがラベルなしデータのラベルを予測する際に確信度の高いラベルを予測できるように,予測確率のエントロピー最小化を行い,以下のような Self-training loss を計算する。
$
L_{\text {self }}=\mathbb{E}_{\mathbf{x} \in \mathbf{X}_{u}} \max \left(0, \gamma-\left.\|\mathbf{y}_{u}\right.\|_{2}^{2}\right)
$
^{1)}$ Chen らの論文 [5] の記述と公開されている実装 (https://github.com/GT-SALT/MixText)には一部異なる部分や論文では言及されていない箇所があり,この節の記述は公開されている実装をもとにしている.
}
図 2 半教師あり学習の概要図.
表 1 障害レポートの各文とそれに対応するラベルの例障害レポートの文状況原因措置その他
A 棟 $1 \mathrm{~F}$ の感知器より警 $\checkmark$報発報。
本箇所の感知器が頻繁
に誤作動しているとの
情報あり。
原因は污れだと思われ
るため、復旧及び感知
器の交換実施。
ここで, $\mathbf{X}_{u}$ はラベルなしテキストデータの集合であり, $\mathbf{y}_{u}$ はラベルなしデータに対して予測されたラベルである.また, $\gamma$ は loss を調整するためのハイパーパラメータである. 最終的な半教師あり学習の
テキストデータの集合であり, $\mathbf{y}_{l}$ はラベルありデー タに対して予測されたラベルである.
また,この手法ではラベルありデータとラベルなしデータを両方用いて補間を行うが,この際の補間のやり方に関して,ラベルありデータとラベルなしデータを混ぜて補間する設定と,別々にそれぞれのデータの中で補間する設定の 2 つの設定が考えられる. 本研究では,この 2 つの設定両方で実験を行い,比較を行なっている。
## 3.3 障害レポート分類
本研究では障害レポートの各文に対してマルチラベル分類を行う.表 1 に実際の障害レポートの文の例を示す。ラベルには状況,原因,措置,その他の 4 つが存在し,各文に対してそれぞれ付与されている. 例えば, 1 行目の文に対しては状況のラベルが, 2 行目の文に対してはその他のラベルが付与されている. 一方, 3 行目の文には原因と措置の 2 つのラベルが付与されている.このように,本研究で扱う障害レポートデータはマルチラベルデータである.
本研究では,マルチラベル分類の手法として勝又ら [4] と同じ,One-vs-Restを用いた。分類モデルには BERT を用いた。具体的には,BERT の最終層に対して平均プーリングを行い,その後 2 層, 128 次元からなる多層パーセプトロンを通し,その出力を用いて,各ラベルを付与するかしないかの確率を求める. この確率を用いて各ラベルごとに 2 值分類を行い,入力 $x$ に対して各ラベルを付与するかどうかを予測する。
## 4 実験
## 4.1 実験設定
本研究では、設備保全に関する障害レポートのデータに対して実験を行う。このデータは今回新たに人手でアノテーションを行ったデータであり, データ中の障害レポートは 194 件存在し,総文数は 1,365 文である. この障害レポートを分割し,学習データに 869 文,開発データに 244 文,評価データに 252 文用いた。
半教師あり学習に用いるラベルなしデータには, Wikipediaを用いた。実際に学習に用いるデータは,元のデータからランダムに 2,500 文を抽出したものを用いた。このデータは,今回対象となる設備保全の障害レポートとは分野の異なるラベルなしデー タである。これらのラベルありデータ,ラベルなしデータの単語分割には,共に MeCab ${ }^{2)}$ を用い,辞書として mecab-ipadic-2.7.0-20070801を用いた.
本研究では事前学習済みの BERT を単にラベルありデータでファインチューニングし,分類を学習したものをべースラインとする.
本研究で使用する事前学習済み BERT モデルは Hugging Face ${ }^{3)} による$ 自然言語処理ライブラリ Transformers ${ }^{4}$ において,東北大学の鈴木らが公開している事前学習済み $\mathrm{BERT}^{5}$ のモデルを使用した。分類には,Chen ら [5] の実装6)をもとに,マルチラ
^{2)}$ http://taku910.github.io/mecab, v.0.996.
${ }^{3)}$ https://huggingface.co/
${ }^{4)}$ https://github.com/huggingface/transformers
${ }^{5)}$ https://github.com/cl-tohoku/bert-japanese
}^{6)} \mathrm{https://github.com/GT-SALT/MixText}$
表 2 分類実験の結果. 太字はその列内で最もスコアが高いものを示す.
ベル分類が行えるように修正を行った.TMix を用いた学習の際の線形補間を行う層については,先行研究の結果をもとに 7, 9, 12 層目からランダムに選択を行った。また,言及していないハイパーパラメータについては元の実装のものを用いた.
本研究では,マルチラベル分類を各ラベルに対して付与されるかされないかの 2 值分類として扱い実験を行っている.そのため,評価は各ラベルごとに行った. 具体的には,各ラベルに対して正しくラベルが付与できた場合を正解として,Precision, Recall,F-score を計算した. モデルの選択は,開発データに対して各ラベルに対する F-score の平均が最も大きいモデルを最も良い分類モデルとして行った. また,全ての実験結果はシード値を変更して2 回実験を行い,平均したものである.
## 4.2 実験結果
実験結果を表 2 に示す. rnd と書かれているものは,学習中にデータに対して補間を行うかどうかをランダムで選択するモデル, sep と書かれているものは,学習中にラベルありデータとラベルなしデータをそれぞれ別々に補間するモデルである。また,+Wiki と書かれているものはラベルなしデータとして Wikipedia のデータを用いて半教師あり学習を行ったものである.
表 2 から,TMixを用いたモデルの平均 $\mathrm{F}$ がべー スラインの BERT の平均 $\mathrm{F}$ を回っており, 隠れ層線形補間によるデータ拡張を用いることで,性能が向上していることが読み取れる.また,ラベルなしデータを用いて半教師あり学習を行ったモデルの全てがベースラインの BERT よりも平均 $\mathrm{F}$ が高く, 少量かつ対象となる分野とは異なる分野のラベルな
しデータを用いているのみにもかかわらず,性能が向上していることが確認できる.加えて,その中でも,Wikipedia のデータを用いて半教師あり学習を行ったモデル(TMix +Wiki)の平均 $\mathrm{F}$ が最も高いことが確認できる.
## 5 分析と考察
表 2 の実験結果から,ラベルありデータのみしか用いない場合 (TMix, TMix (rnd)), 学習中にデータに対して補間を行うかどうかをランダムで選択する方が性能が向上していることが確認できる。一方,同様のラベルなしデータを用いたモデルの中では,全ての入力データをまとめて補間するモデル(TMix +Wiki)の平均 $\mathrm{F}$ が最も高いことがわかる. これらの結果から,信頼度の高いラベルありデータのみで線形補間を行う場合は,全てのデータではなく一部のデータで補間を行う方が性能向上に役立つのに対して,信頼度の低いラベルなしデータはそれ単体で用いるのではなく,常にラベルありデータと補間して用いることで,より分類モデルの性能を向上させることができると考えられる.
## 6 おわりに
本研究では,対象となる分野のラベルありデータが少ないテキスト分類において,隠れ層線形補間を用いたデータ拡張を行うことで,追加のデータを用いることなく性能が向上することを示した.また,隠れ層線形補間をもとにして少量のラベルなしデー タと共に半教師あり学習を行うことで,さらなる性能の向上が図れることを示した。
## 参考文献
[1] Jiaao Chen, Yuwei Wu, and Diyi Yang. Semi-supervised models via data augmentation for classifying interactive affective responses. In AffCon, AAAI, Vol. 2614, pp. 151-160, 2020.
[2] Qizhe Xie, Zihang Dai, Eduard Hovy, Minh-Thang Luong, and Quoc V Le. Unsupervised data augmentation for consistency training. In NeurIPS, p. 14, 2020.
[3] Suchin Gururangan, Tam Dang, Dallas Card, and Noah A. Smith. Variational pretraining for semi-supervised text classification. In $A C L$, pp. 5880-5894, 2019.
[4] 勝又智, 小町守, 真鍋章, 谷本恒野. 障害レポートの分類問題に対するデータ選択を用いた BERT モデルの精度向上. 言語処理学会第 26 回年次大会, pp. 645-648, 2020.
[5] Jiaao Chen, Zichao Yang, and Diyi Yang. MixText: Linguistically-informed interpolation of hidden space for semi-supervised text classification. In $A C L$, pp. 2147-2157, 2020.
[6] Hongyi Zhang, Moustapha Cissé, Yann N. Dauphin, and David Lopez-Paz. mixup: Beyond empirical risk minimization. CoRR, Vol. abs/1710.09412, , 2017.
[7] David Berthelot, Nicholas Carlini, Ian Goodfellow, Nicolas Papernot, Avital Oliver, and Colin A Raffel. MixMatch: A holistic approach to semi-supervised learning. In NeurIPS, Vol. 32, pp. 5049-5059, 2019.
[8] Vikas Verma, Alex Lamb, Christopher Beckham, Amir Najafi, Ioannis Mitliagkas, David Lopez-Paz, and Yoshua Bengio. Manifold mixup: Better representations by interpolating hidden states. In ICML, Vol. 97, pp. 6438-6447, 2019.
[9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In $N A A C L$, pp. 41714186, 2019 | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-8.pdf | # 特許文書を対象とした化学実験構造化のための基礎的検討
作本猛 ${ }^{1}$ 邊土名朝飛 ${ }^{1}$ 山本雄太 ${ }^{2}$ 森㜄 ${ }^{2}$ 野中尋史 ${ }^{1}$
1 長岡技術科学大学大学院 工学研究科
2 長岡技術科学大学工学部
\{s183353,s173348,s193378,s203372\}@stn.nagaokaut.ac.jp
nonaka@kjs.nagaokaut.ac.jp
## 1 はじめに
化学情報の構造化は、薬品や材料の開発、低コス卜な合成経路の探索といった応用のために重要である. 化学分野では、新規発明に対する権利保護の観点から特許出願が論文出版より優先される傾向にあり、また、特許明細書は、化合物の性質、評価実験等に関する詳細な記述を含むことから、特許を対象とした情報抽出、構造化の研究が広く行われてきた [1][2]. 近年、こうした研究の対象として、固有名や物性といった化学物質に関連する情報に加え、操作や条件といった実験手順に関連する情報が注目されている.
Vaucher ら [3] は、合成実験の自動化に向けて、有機化学の特許明細書中に記載された合成実験の手順を、操作を主体とした一連の機械読解可能な表現に変換することで構造化した.また、W-NUT20201) では、化学実験の手順を対象とした関係抽出タスクの評価型ワークショップ [4] が開催された. ところが、こうした研究は英語を対象としたものが中心であり、日本語を対象とした実験手順の抽出、構造化に関する研究は我々の知る限り存在しない. 欧米日中韓 5 か国の特許庁が公開した 2018 年度の統計 [5] によると、日本では 1 年間で 3.3 万件の化学特許が出願されており、これは中国の 9.5 万件、米国の 4.0 万件に次ぐ規模である.このことは、日本語での化学情報構造化の重要性を示している.
そこで、本研究では図 1 に示すように日本語で記述された化学実験手順の構造定義と情報抽出手法の開発を行う. 本論文では構造化の基礎として、有機化学分野の特許明細書から、操作を表す動詞とその目的語について、文節単位での特定と、動詞-目的語間の関係抽出を行った。
図 1 化学実験手順の構造化を目的とした情報抽出の例
長尾ら [6] は、手続きを表す日本語文の意味解析のために、動詞辞書の構築と動詞-目的語間に存在する文法的特徴のまとめ上げを行った。こうした手法は近年の研究 [7] にも応用されており、手続き的な文章を対象とし、かつドメインを限定している場合、辞書構築と文法的特徴によるナイーブな解析手法は情報抽出においても実用的な性能が期待できる.しかし、特許明細書には造語が頻出するため、動詞や固有名詞の辞書構築がドメインを限定しても現実的ではない,そのため、我々は大規模な辞書構築なしに、実験手続きを表す文の特定と情報の抽出を行うための文法的特徴についてまとめ上げ、その有効性と適用範囲に関する実験、考察を行った。
## 2 化学実験文書の構造的特徵
## 2.1 化学実験文書を構成する文
日本語で記述された化学実験文書を構成するのは、大きく分けて以下の 2 種類の文である.
$\cdot$実験操作文
-混合液を常温まで放置し反応させた
- 実験説明文
一生成物の収率は $80.0 \%$ 0 あった
- 温度が常温になるまで昇温した
それぞれの特徴を表 1 に示す。
実験操作文は、操作を表す動詞またはサ変名詞による述語が主体となる文であり、主に操作、操作の
表 1 実験操作文と実験説明文の比較
\\
目的語または修飾語、操作の目的語に対する修飾語の 3 種類が存在する. 以後、操作を表す動詞による文節を操作、操作の目的語や修飾語を含む文節を操作引数と呼ぶ.
実験説明文は、操作や操作引数の性質、状態、物理量等について説明を行うものであり、判定詞や形容詞による述語が主体となる文である.
これらのうち、本論文では実験操作文を情報抽出の対象とした。
## 2.2 実験操作文の構造
本節では、実験操作文に頻出する、格助詞や品詞、修飾の形態によって表現される操作引数-操作間の関係構造について、主要な大分類である 3 種類と、 それらを構成する小分類や主な関係パターンについて、その実例として代表的なものを提示する. 各パターンについて、操作を意味する文節は太字で、操作引数を意味する文節は下線付きで表示し、また、 そのパターンが各大分類中に占める割合を 4 節で提示するアノテーションデータから算出し、パターンの右側に示した.
## 2.2.1 主対象
主対象は、操作とその主な対象となる操作引数との関係を表現する。
- ヨ格 + 述語
一溶媒を留去した
- 格 + 述語 (+述語)
一溶媒の留去を行った
- ガ格 + 述語
一溶媒が留去された
## 2.2.2 間接対象
間接対象は、任意の主対象を取る操作と、それによって間接的に影響を受ける操作引数との関係を表現する. 基本的には起点対象、終点対象の 2 種類に分類される.
起点対象操作、あるいは主対象関係にある操作引数の起点となる対象を表現する。
-カラ格 + 述語
一反応物から不要物を除去した
終点対象操作、あるいは主対象関係にある語の終点となる対象を表現する。
- 二格 + 述語
- 氷上に溶液を滴下した
## 2.2.3 条件
条件は、操作とその定量的あるいは定性的な条件、または操作を促進するためのモノを表す操作引数との関係を表現する.基本的には、基本条件、終点条件、物的条件の 3 種類に分類される.
基本条件操作、あるいは主対象関係にある操作引数に付随する条件を表現する。
・デ格 + 述語
- 室温で擋拌する
- 無格 $(+$ 述語 $)+$ 述語
-1 時間放置する
-1 時間かけて放置する
- 形容系の連用 + 述語
一ゆっくりと撹拌する
終点条件操作が、その主対象関係にある操作引数に対して、数量や性質を変化させる時、その終点となる条件を表現する。
・ニ/ト格 + 述語
$-40^{\circ} \mathrm{C} /$ 塩基性に調整する
-40Torr/塩基性とする
・マデ格 + 述語
一常温まで昇温した
物的条件任意の主対象を持つ操作と、それを可能にする、あるいは促進するために用いられる操作引数との関係を表現する。
・デ格 + 述語
一酢酸エチルで抽出した
・ニ格 +テ+述語
一酢酸エチルにて抽出した
・カラ格 + 述語
- 溶媒から再結晶した
・二格 + 述語 + 述語
一酢酸エチルによって抽出した
- ヨ格 + 述語 + 述語
一酢酸エチルを用いて抽出した
## 3 提案手法
## 3.1 タスク設計
本論文では、2.2 節でそれぞれ太字、下線付きで示した操作、操作引数の 2 種類の役割について、文節単位での特定と、対応する役割ラベルの付与を行う. さらに、各操作引数文節の係り先となる操作文節の特定、 2.2 節で示した 3 種類の関係を表すラべルの付与を行う,以下の図 2 に情報抽出例を示す.
図 2 情報抽出例
## 3.2 情報抽出のワークフロー
## 3.2.1 前処理
化合物名の置換有機化合物の名称は、「1'-( $\omega$-ブロモデシル)-3',3'-ジメチル-6-ニトロスピロ〔2H-1ベンゾピラン-2,2'インドリン」」のように、官能基名や位置番号等をハイフン、カンマ等の記号で結合した形で表される.これは形態素・構文解析の誤りに繋がるが、日本語有機化合物名は慣用名の使用や省略等によって辞書置換が困難であるため、ハイフン記号に着目した正規表現で単純な置換を行った。
括弧の除去括弧は表題番号、ラベル、直前の文節の説明等広い用途で使用されるが、係り受け解析時に誤りの原因となりうる. 括弧は入れ子構造を取りうるため正規表現は使用せず、スタックを使用して一時的に除去を行った。
形態素・構文解析 Juman++[8]、KNP[9] を使用し、係り受けや格、修飾形態等の情報を持った文節リストを生成した。
実験操作文の抽出構文解析によって得た文節リストを対象に、ヨ格または述語のない文を除去する. 次に、2.1 節で示した実験操作文、実験説明文の特徴により、実験説明文を除去する。また、特定の動詞述語を末尾に持つ文も除去する. 以下に除去対象の動詞例を示す。
一除去対象の動詞例
なる、示す、有する、説明、確認、例示、向上
## 3.2.2 文節の役割、係り先、関係の特定
2.2 節で示した文法的特徴に合致する文節の組に対し、操作、操作引数の役割ラベルを各文節に付与し、対応する関係ラベルを操作引数-操作間に付与する. 非述語の文節が非述語の文節に係っている場合、以下の例外処理を実行する。
・文節が並列文節なら、並列の先端文節の係り先述語に係り、同じ関係ラベルを付与
- 文節が無格で数量文節に係るなら、数量文節の代わりにその係り先述語に係り、その格情報で関係ラベルを付与
## 4 実験
化学分野の実験手順を表す日本語文書として、 1991 年から 2000 年の間に出願された、国際特許分類 $\mathrm{C} 07$ (有機化学) の特許 42 件をランダムに選択し、 2.2 節に示した文節の役割ラベルと関係ラベルについてアノテーションを行った. 文節の役割ラベルと関係ラベルの個数を表 2 に示す. このデータに対して、 3.2 節で示した方法によって文節の役割ラベル、操作引数の係り先操作、操作引数-操作間の関係ラベルの特定を行い、それぞれの性能、また、ワークフローの全体的な性能について評価を行った.ここで、操作または操作引数と予測した文節について、下記の 4 種類を評価に用いる正解条件とした。
条件 1 見出し語がアノテートされたものと一致またはそれを完全に含む
条件 2 役割ラベルがアノテートされたものと一致
条件 3 役割ラベルが操作引数の場合、係り先の操作がアノテートされたものと一致
条件 4 関係ラベルがアノテートされたものと一致
文節の役割ラベル特定は、全データを評価対象とし、条件 1〜2を満たすものを正解として評価した.操作引数の係り先操作の特定は、独立した性能評価のために、条件 12を満たすものを評価対象とし、条件 3 を満たすものを正解として評価した. 操作引
表 3
文節の役割特定の評価結果
表 4 操作引数の係り先操作特定の評価結果
数-操作間の関係ラベル特定も、これと同様にして条件 1〜3を満たすものを評価対象とし、条件 4 を満たすものを正解として評価した。また、ワークフローの全体的な評価としては、全データを評価対象とし、条件 1 4を全て満たすものを正解として評価した. 評価指標には再現率、適合率、 $\mathrm{F}$ 値を使用した. それぞれの評価結果を、表 3~6亿示す。
表 5 より、関係ラベルはアノテーションデータの 9 割以上を再現できており、 $\mathrm{F}$ 値も 8 割を超える結果となった.また、表 6 より、 $\mathrm{F}$ 値で 0.64 0.77 と教師なしの情報抽出としては十分な性能が示された.
## 5 考察
表 6 の結果より、ルールベース手法としては全体的に十分な結果が得られたが、間接対象や条件等、一部の関係について評価値が低い結果となった。そこで、ボトルネック要因の分析を行う.
表 3、5より、これら 2 タスクの性能は十分に高いことがわかる.ただし、関係ラベル特定における間接対象の適合率は比較的低い值であり、表 6 にも類似した傾向が見られるため、関係ラベル特定が間接対象のボトルネック要因であると考えられる.間接対象と誤予測された例を見ると、「常圧に」、「室温に」のように、終点条件であるものを終点対象と予測したものが大半であった. こうした語は「常、高、低」のような接頭辞や、「圧、温」のような語が文節内に存在しやすいため、見出し語中に頻出する上記のようなパターンを取り入れることで解決を図ることができる.
表 4 より、操作引数の係り先操作の特定は、表 3、 5 に示す 2 タスクと比較して比較的低めの評価値となっており、これがワークフローの全体的な評価值を落とす主原因であると考えられる。そこで、操作表 5 操作引数-操作間の関係ラベル特定の評価結果
表 6 ワークフローの全体的な評価結果
引数の係り先操作特定に失敗した文を目視で確認し、原因パターンのまとめ上げを行った. 代表的な失敗パターンとその割合を以下の表 7 に示す。これらのうち、構文解析器による失敗について述べる.特許には過剰に読点が打たれた文章が多く、「全体を、擋拌しながら 24 時間、室温で保持し、次に水 $500 \mathrm{ml}$ を加えた」のような文章に対して、構文解析器は読点を基準とした並列関係を誤予測しゃすい。また、もし不要な読点がなかったとしても、「全体を」が「攪拌」に係るのか、「保持」に係るのかの特定は、文節の意味と文脈に依存するため、誤予測が発生しやすい.こうした例は表層的なパター ンのみで対処することは難しく、係り受け例を大量に収集して教師あり学習を行う等のアプローチが必要となる.
表 7 操作引数の係り先操作特定の失敗パターン例
## 6 おわりに
本研究では、日本語で記載された化学実験手順の構造化を目的とし、その基礎として、化学分野の実験手順文書に存在する文法的特徴のまとめ上げを行った. 一部課題点が見られはしたが、基本的には操作引数-操作間の関係は文法的特徴を使用することで高精度な特定が可能であり、一連の情報抽出についても、大量の教師データや辞書の作成なしに、十分な精度で行うことが可能であることが確認できた. 今後は、ルールベース手法での限界が見られた点に対し、統計的手法の適用による改善を行う.
## 参考文献
[1]Daniel Mark Lowe. Extraction of Chemical Structures and Reactions from the Literature. Phd thesis, University of Cambridge, 2012
[2]田中一成, 池田紀子. オープンデータを用いた化学特許情報活用へのアプローチ. Japio year book, pp. 206-211, 2017 .
[3]Alain C. Vaucher, Federico Zipoli, Joppe Geluykens, Vishnu H. Nair, Philippe Schwaller, and Teodoro Laino. Automated extraction of chemical synthesis actions from experimental procedures. Nature Communications, Vol. 11, No. 1, p. 3601, 2020.
[4]Jeniya Tabassum, Sydney Lee, Wei Xu, and Alan Ritter. Wnut2020 task 1 overview: Extracting entities and relations from wet lab protocols. $a r X i v: 2010.14576$ [cs], 2020.
[5]Five IP Offices. Ip5 statistics report 2018 edition, (2021-01 閲覧). https://www. fiveipoffices.org/wcm/connect/fiveipoffices/ 8c519416-173d-4b32-99ed-5387045c46a2/IP5+ Statistics+Report+2018_20122019_full.pdf?MOD= AJPERES\&CVID=.
[6]長尾真, 辻井潤一, 田中一敏. 意味および文脈情報を用いた日本語文の解析-名詞句・単文の処理. 情報処理, Vol. 17, No. 1, 1976.
[7]豊辻宏旨, 松崎拓也, 佐藤理史. オントロジーに基づく意味解析を用いた「化学」正誤問題の自動解法. 人工知能学会全国大会論文集第 31 回全国大会 (2017), pp. 3G11-3G11, 2017.
[8]Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, 2018.
[9]Daisuke Kawahara and Sadao Kurohashi. A fully-lexicalized probabilistic model for japanese syntactic and case structure analysis. In Proceedings of the Main Conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, pp. 176-183, 2006. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
P9-9.pdf | # 人物の属性を考慮した周期的事象の獲得
山元航平
九州工業大学大学院 情報工学府
k_yamamoto@pluto.ai.kyutech.ac.jp
}
嶋田和孝
九州工業大学 情報工学部
shimada@pluto.ai.kyutech.ac.jp
## 1 はじめに
昨今,常識的知識獲得 [1] や常識的知識推論 [2] を始めとして,常識的知識についての研究が盛んに行われている。大規模な知識べースも多数提案されており $[2,3,4]$, 常識的知識が質問応答 [5] や非タスク指向型対話 [6], 複数のベンチマークタスク [7] において有効であることが報告されている.
我々は以前の研究 [8] において,学生や社会人などの人物属性を定義し, これらの人物属性に強い関連を持つ周期的事象 (Periodic Event) の獲得を試みた. 周期的事象とは, 人間の行動などの事象の中でも,特定の時期や時間帯に発生する傾向のある事象のことである。周期的事象は\{“事象”, “時期・時間帯”\}のように事象と時期・時間帯の 2 つ組で表記する. 具体例としては\{雪が降る, 冬\}や\{湯船につかる,夜了などが挙げられる. この先行研究では人物属性分類の手法を導入することで,学生の\{大学に来る, 13 時 $\}$ や社会人の $\{$ 残業になる, 平日 $\}$ ど, 人物属性らしさを持つ周期的事象の獲得には一定の成功を収めた. しかし周期的事象と人物属性との関連の強さの評価や,獲得した周期的事象の評価などの点において問題が残っている.
本研究では我々の以前 $[8]$ の研究を踏まえ,人物属性との関連性評価手法および周期的事象の有用性評価手法を導入することで,Twitter データからのより高品質な人物属性に特徴的な周期的事象知識の獲得を目指す。
## 2 関連研究
時間的な常識知識に着目した研究としてはZhou ら [9] の研究が挙げられる. Zhou らは時間的常識知識をモデルに与えることを目的として, 時間的常識知識の収集および時間的常識推論モデルの作成を行った. 目的の異なる研究ではあるものの, 我々が獲得を目指す周期的事象も Zhou らの定義した複数の時間的常識知識に含まれている。しかし, Znou ら
の研究では行動主体の人物の属性が考慮されていない. 本研究では人物の属性を考慮し,人物の属性ごとに特徵的な定期的事象知識の獲得を目指す.
## 3 データセット
本研究では人物属性ごとの周期的事象知識の抽出元として,属性ごとに分割された Tweet データセット (以下,属性別データセット)を作成する必要がある。以下,属性別データセットに含まれる人物属性の定義 (3.1 節), 作成に使用した 2 種類のデータセット (3.2 節) および先行研究 [8] の手法による属性別データセットの作成 ( 3.3 節) について述べる.
## 3.1 人物属性の定義
本研究では学生と社会人の 2 種類の人物属性を設定し,以下のように定義した.
学生
-小学校, 中学校, 高等学校, 専門学校, 大学, 大学院および,それに準ずる教育期間に学習者の立場で在籍している.
$\cdot$休学中でない.
## 社会人
・学生でない.
$\cdot$何らかの手段で所得を得ているか,専業主ふである.
## 3.22 種類のデータセット
属性別データセットの作成のために,2 種類の Twitter ユーザデータセットを用意した. 各データセットには複数の Twitter ユーザデータが含まれ,各 Twitter ユーザデータにはユーザ名,一定期間分の投稿 Tweet,自己紹介欄テキストなどのデータが紐づいている.
## 3.2.1 オリジナル大規模データセット
ランダムに収集した Twitter ユーザのデータセットである. 収集には Twitter 社の提供する Twitter API ${ }^{1)}$
1) https://developer.twitter.com/en/docs/twitter-api
表 1 属性別データセットに含まれるユーザ数と Tweet 数
を使用した. なおフィルタリングを行い,Tweet 投稿数の少なすぎるアカウントや商業目的のアカウントのデータは除外した. 本研究では収集したデータの内,20万ユーザ分のデータ (約 1.2 億 Tweet)を使用した。
## 3.2.2 ラベル付き小規模データセット
オリジナルデータセット (3.2.1 節) 中の一部の Twitter ユーザデータに,人手で人物属性ラベルを付与し作成したデータセットである. データ数は学生ユーザが 1032 ユーザ分 (約 100 万 Tweet),社会人ユーザが 1216 ユーザ分 (約 120 万 Tweet) である.
## 3.3 属性別データセット
知識獲得においては知識の抽出元のデータセットの規模は大きいことが望ましいが,人手で大規模なラベル付きデータセットを作成することは難しい. そこで本研究では先行研究 [8] の手法に基づきラベル付き小規模データセット (3.2.2 節) から Twitter ユーザ人物属性分類モデルを作成する.具体的には BERT[10] 日本語事前学習モデル2)を用いて,Tweet 単位での人物属性分類タスクのファインチューニングを行い,あるユーザの各 Tweet における人物属性分類の結果から当該ユーザの人物属性の推定するモデルである. オリジナル大規模データセット (3.2.1 節) 中の Twitter ユーザに用いることで擬似的に人物属性ラベルの付与を行い, 属性別データセットを作成した. 作成した属性別データセットに含まれるユーザ数と Tweet 数を表 1 に示す.
## 4 提案手法
本研究では人物属性において特徴的な周期的事象の獲得を目指す。まず,属性別データセット (3 節)中の Tweet から事象を抽出する (4.1 節). 抽出した各事象に対し,時間区分における周期性の評価と人物属性との関連性の強さの評価を行い,スコアを付与し (4.2 節),ランキングの作成を行う (4.3 節). 図 1 に提案手法の概要図を示す. 以下,各手順について詳しく説明する。
図 1 提案手法の概要図
## 4.1 事象の抽出
人間の行動を始め,様々な事象は動詞で表現されることが多い。そこで Tweet 中から動詞を抽出する. さらに,係り受け関係に名詞が存在する場合には,動詞単体に加えて名詞と動詞のペアも抽出する. 抽出した名詞と動詞のペアは,“名詞+動詞”と表記する。本研究では,抽出した動詞単体および名詞+動詞をまとめて「事象語」と呼ぶ.
## 4.2 スコアリング
本研究では周期的事象の性質を持ち,かつ各人物属性において特徴的な事象の獲得を目指すため,周期的事象の性質を持つかを評価する周期的事象スコア (4.2.1 節) と人物属性において特徴的かを評価する人物属性スコア (4.2.2 節) の 2 種類のスコアを使用する. 各スコアの詳細について以下に詳述する。
## 4.2.1 周期的事象スコア
平日・休日,曜日,朝昼晚, 24 時間の 4 種類,計 36 個の時間区分を設定する. ある時間区分 $t$ に対し $\tau, t$ 自身を除く $t$ と同じ種類の任意の時間区分を $t_{\text {other }}$ とする. ある事象語 $w$ の時間区分 $t$ における頻度を $f(w, t)$ とし, ある事象語の総頻度を $F(w)$ とする. また以下の 2 つの条件を設定する.
C1: 少数のユーザに集中的に使用されている
C2: 365 日の各日の頻度の分散が高い
このとき,事象語 $w$ のある時間区分 $t$ における周期的事象スコア $\operatorname{Score}_{p}(w, t)$ をロジットを用いて以下のように定義する.
$
\begin{aligned}
& \operatorname{Score}_{P}(w, t)= \\
& \begin{cases}0 & (C 1 \text { or } C 2 \text { or }<0) \\
E\left(\log \frac{f(w, t)}{f\left(w, t_{\text {other }}\right)-f(w, t)}\right) & (\text { otherwise })\end{cases}
\end{aligned}
$
## 4.2.2人物属性スコア
属性 $a$ のデータセット中での事象語 $w$ の時間区分 $t$ における頻度を $f_{a}(a, w, t)$ とする. 属性 $a$ 以外の任意の属性を $a_{\text {other }}$ とする. このとき,属性 $a$ のデータセット中での事象語 $w$ の時間区分 $t$ における人物属性スコア $\operatorname{Score}_{A}(a, t, w)$ を, ロジットを用いて以下のように定義する.
$
\begin{aligned}
& \operatorname{Score}_{A}(a, t, w)= \\
& \begin{cases}0 & (<0) \\
E\left(\log \frac{f_{a}(a, w, t)}{f_{a}\left(a_{\text {other }}, w, t\right)-f_{a}(a, w, t)}\right) & (\text { otherwise })\end{cases}
\end{aligned}
$
## 4.3 ランキング作成
各事象語の最低頻度の閾値を $m$ とする. 属性 $a$ のデータセットにおける時間区分 $t$ の事象語 $w$ の統合スコア $\operatorname{Score}(a, t, w)$ を,周期的事象スコア (4.2.1 節)と人物属性スコア (4.2.2 節) の統合スコアを用いて以下のように定義する.
$
\begin{aligned}
& \operatorname{Score}(a, t, w)= \\
& \begin{cases}0 & (F(w)<m) \\
\operatorname{Score}_{P}(w, t) \times \operatorname{Score}_{A}(a, t, w) & (F(w) \geq m)\end{cases}
\end{aligned}
$
統合スコアを用いて,ある人物属性の各時間区分における周期的事象語のランキングを作成する.
## 5 実験
本研究では 3.1 節で定義した「学生」「社会人」の 2 種類の人物属性を周期的事象獲得の対象とする.周期的事象スコア (4.2.1 節) の条件 1 は抽出元 Tweet の 1 割以上を占める単一ユーザがいるか,条件 2 の分散は $5 e-5$, ランキング作成 (4.3 節) の閾値 $m$ は 500 に設定した. 作成したランキングのうち,24 時間のランキングの 10 時から 12 時と平日休日の上位 5 件の結果を表 2 に示す.
## 6 評価実験
我々の以前の研究 [8] における手法をべースライン手法とする. 具体的には, 4.2.1 節の周期的事象スコアのみによる手法である. 本手法によって獲得した事象語に対し, ベースライン手法との定性的評価および定量的評価を行う.
## 6.1 定性的評価
比較のためにベースライン手法による事象語のランキングを作成した. 24 時間のランキングの 10 時から 12 時と平日休日の上位 5 件の結果を表 3 に示す. 最低頻度などのパラメータは 5 節の設定の通りである。
## 6.2 定量的評価
提案手法により,目的とする知識の獲得に成功したとすると,作成したランキング中には各人物属性に特徴的な周期的事象語が多数含まれているはずである.そのため,作成したランキング中の語は人物の属性分類の素性として有効であることが予想できる. そこで各ユーザに対し,獲得した周期的事象語を踏まえたべクトル (以降,周期的事象ベクトルとする) を作成し,周期的事象べクトルを素性として用いた人物属性分類を行うことで,間接的に提案手法の定量的評価を行う.
## 6.2.1 定量的評価手法
あるユーザ $u$ の周期的事象ベクトルはランキング上位の単語群で構成される. 各ベクトルの值は, ユーザ $u$ の Tweet 群中における各単語の出現頻度を, Tweet 群中の全事象語数で正規化した值 $n_{(a, t, i)}^{u}$ である. 次元数は属性数 $(a) \times$ 時間区分 $(t) \times$ 単語数 $(i)$ となる.
$
v_{u}=\left.\{n_{(\text {社, 平, 1) }}^{u}, n_{(\text {社, 平, 2) }}^{u}, \cdots, n_{(\text {社, 休, 1) }}^{u}, \cdots\right.\}
$
本論文では, $a=\{$ 社会人, 学生 $\}$ の 2 次元, $t=\{$ 平日 ,休日, 朝,昼, $\cdots, 22$ 時, 23 時 $\}$ の 32 次元, $i=\{$ ランキング 1 位, 2 位, $\cdots, 10$ 位 \}の 10 次元に設定した.
## 6.2.2 定量的評価結果
周期的事象べクトルを用いた人物属性分類を行った. 分類器はナイーブベイズを使用した. データは属性別データセット中の 9725 ユーザデータ (学生 4862 ユーザ,社会人 4863 ユーザ) を使用し, 5 分割交差検定を行って F1 值の平均値を確認した. 結果を表 4 に示す.
## 7 考察
表 2 より, 学生のランキングには $\{$ 大学+行く, 11 時\}や\{勉強+やる, 平日\}などのように学校や勉学関連の事象語が含まれている。また, $\{$ 寝坊+する, 10
表 2 提案手法によるランキング $10-12$ 時,平日休日の結果
表 3 ベースライン手法のランキング 10-12 時,平日休日の結果
表 4 手法の定量的評価のための人物属性分類結果
時 $\} や\{$ 布団+出る, 11 時 $\}$゙のように,社会人では考えにくい生活リズムを示す事象語も確認できることから,学生の周期的事象の獲得には一定の成功を収めていると言える。社会人のランキングにおいて
に家事や勤務に関する事象語が獲得できているものの少数である.全体としては,どのような事象についての事象語か理解の難しいものが多い. 本研究における社会人の定義には会社員と主ふの両方が含まれることから,会社員にのみ特徴的な語や主ふにのみ特徴的な語のスコアが低くなる傾向にあるためだと考えられる。
ベースライン手法によるランキング中には, $\{$ 昼+食べる, 11 時 $\}$ や社会人の $\{$ 昼+休む, 12 時 $\}$ どのように,その時間区分に強く関連するものの特定の人物属性に紐づかない事象語が存在している. また社会人の\{学校+行く, 平日 $\}$ ように明らかに当該人物属性に関連しない事象語も存在する. これらの事象語は提案手法のランキング (表 2) からは除去できており,提案手法の有効性が確認できた.次に定量的評価について考察する。表 4 より,提案手法における周期的事象べクトルでの分類のほうが高精度であるため,提案手法で獲得した周期的事象知識のほうが各人物属性に特徴的な周期的事象として適切であることが改めて確認できる。
定性的評価,定量的評価の両方において提案手法の有効性が確認できたことから,ベースラインと比べてより高品質な属性ごとの周期的事象の獲得に成功したと言える. しかしノイズ的な事象語もいまだに多く存在するため,事象語に付与した 2 種類のスコアへの重みの追加なども含め, 知識獲得手法の改良は必要である。
## 8 おわりに
本研究では,人物属性ごとに特徴的な周期的事象の獲得を目指して Tweet データからの知識獲得を試みた.属性ごとのばらつきはあるものの,いずれの属性においても特徴的な周期的事象の獲得に成功した.またベースライン手法との比較により,定性的評価と定量的評価の両方において提案手法の優位性を確認した. 今後はより高品質な周期的事象知識獲得を目指し,手法の改良に取り組む。
## 参考文献
[1] Frank F Xu, Bill Yuchen Lin, and Kenny Zhu. Automatic extraction of commonsense locatednear knowledge. In Proceedings of ACL, pp. 96-101, 2018.
[2] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. In Proceedings of AAAI, Vol. 33, pp. 3027-3035, 2019.
[3] Hannah Rashkin, Maarten Sap, Emily Allaway, Noah A Smith, and Yejin Choi. Event2mind: Commonsense inference on events, intents, and reactions. In Proceedings of ACL, pp. 463-473, 2018.
[4] Robert Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Proceedings of AAAI, pp. 4444-4451, 2017.
[5] Wanjun Zhong, Duyu Tang, Nan Duan, Ming Zhou, Jiahai Wang, and Jian Yin. Improving question answering by commonsense-based pre-training. In Proceedings of NLPCC, pp. 16-28. Springer, 2019.
[6] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In Proceedings of ICLR, 2019.
[7] Zhang Zhengyan, Han Xu, Liu Zhiyuan, Jiang Xin, Sun Maosong, and Liu Qun. Ernie: Enhanced language representation with informative entities. In Proceedings of ACL, pp. 1441-1451, 2019.
[8] Kohei Yamamoto and Kazutaka Shimada. Acquisition of periodic events with person attributes. In Proceedings of IALP, pp. 229-234, 2020
[9] Ben Zhou, Qiang Ning, Daniel Khashabi, and Dan Roth. Temporal common sense acquisition with minimal supervision. In Proceedings of ACL, pp. 7579-7589, 2020
[10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pp. 4171-4186, 2019. | NLP-2021 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A1-1.pdf | # 市況コメント生成のための少数事例選択
川原田将之 $\dagger$ 石垣達也 $\dagger$ 高村大也 $\dagger$
†産業技術総合研究所
masayuki.kawarada.m@gmail.com
\{ishigaki.tatsuya, takamura.hiroya\}@aist.go.jp
## 概要
株価の数値時系列データからその値動きを説明する市況コメントを生成するタスクにおいて,プロンプトに含める少数ショット事例の選択方法が性能向上のために重要であることを述べる. 従来,少数ショット事例は無作為に選択されており,その選択方法に関しては十分に研究されてこなかった. 本研究では,類似する数値時系列データからのコメントや同一時点でのコメントの傾向が類似しているという特性を活用し,これらを少数ショット事例としてプロンプトに含める手法を提案する。評価実験において,ランダムに選択された事例を使用するべースラインと比較し, 提案手法が代表的な評価指標である BLEU,METEOR,BERTScore をいずれも向上させた.
## 1 はじめに
市況コメント生成は, 日経平均の値動きを表現した数値時系列データを入力とし,値動きを説明するテキストを出力する Data-to-text タスクの一つである.このタスクでは,従来,事前学習済みのニュー ラルネットワークを学習データを用いて,ファインチューニングする手法が主流であった [1]. 近年は GPT 等の大規模事前学習言語モデルにプロンプ卜を与え言語生成する少数ショット学習 (few-shot learning) が注目されている [2]. そこで,本研究では,市況コメント生成を少数ショット学習で解く問題設定に着目し,プロンプトに含めるべき少数ショット事例の選択することで性能を向上させる手法を提案する。
少数ショット学習は,文書分類,質問応答,機械翻訳など幅広い言語処理タスクに適用され活発に研究されている.これらの研究では,「プロンプトの記述形式」,「プロンプトに含める少数ショット事例の選び方」,「プロンプト内での少数ショット事例の提示順」が性能に大きく影響することが指摘されている [3]. 市況コメント生成についての既存研究では,プロンプトの記述形式に着目するものが存在する [2] が,少数ショット事例に着目した研究は存在しない. 既存の少数ショット事例の選択手法では,極性分析や文書分類において文の埋め込み表現の類似度を用いる手法,機械翻訳において高速な類似文字列探索手法を用いることで学習データセットから類似事例を探索するアイデアが提案されている $[3,4]$. 一方,市況コメント生成では入力が数値時系列データであるため,既存手法をそのまま適用することができない.
そこで,本研究では,図 1 に示すように,市況コメント生成タスクにおける 2 つ特徴に着目した類似事例探索を行い,プロンプトに含める少数ショッ卜事例の選択を行う手法を提案する。1つ目は,入力が数値時系列データである特徴に着目し,時系列同士の相関係数に基づき事例を選択する手法である. 2 つ目は,入力の数值時系列データが時刻と対応付いているという特徴に着目し,配信時刻の近さに基づいて事例を選択する手法である。
既存データを用いた実験において,2つの手法は共に,従来のファインチューニングによる手法および,無作為に少数ショット事例を選択しプロンプトに含める手法よりも優れた性能を示した。
## 2 手法
タスク定義:本研究では,短期系列と長期系列という 2 つの数値時系列データを入力として市況コメントを生成するタスクを扱う。1 日の日経平均株価の值動きを示した短期系列 $S_{N}$, 過去の日経平均株価の終値を示した系列を長期系列 $L_{M}$ とする。短期系列には,現時刻から時間を遡って,等間隔に記録された $N$ 個のデータが含まれている。短期系列 $S_{N}$ は株価が記録された時刻を表す系列 $T_{N}$ と対応づいており,それぞれ, $S_{N}=\left.\{s_{1}, \ldots, s_{N}\right.\}, T_{N}=\left.\{t_{1}, \ldots, t_{N}\right.\}$
東証大引け、円安好感し反発約 5 力月半ぶりの水準
類似事例ではない
日経平均、上げ幅 100 円超える円安追い風先物買いも加速
類似事例
東証10時、高値圏で小動き輸出関連買い戻しも円高が重荷
類似事例
日経平均、上げ幅100円超える 1 万400円台半ばの値動きに
類似事例ではない
東証前引け、反落ほぼ全面安下げ幅一時130円強円高進行
図 1 提案手法の処理手順. 1) テスト事例の時刻情報や値動きを手がかりに学習データから類似事例を探索し, 2) 少数ショット事例としてプロンプトの中で用いる.
と表される。ここで, $t_{1}, s_{1}$ は,現在の時刻と株価をそれぞれ表している。また,長期系列において, $M$ 日前までの系列が含まれるとすると,長期系列は $L_{M}=\left.\{l_{1}, \ldots, l_{M}\right.\}$ と表される. 市況コメント生成は $S_{N}$ と $L_{M}$ を入力として,現在時刻 $t_{1}$ における市況コメントを出力するタスクである.
プロンプト:図 2 に,少数ショット学習に用いるプロンプトを示す.まず,1行目に「現在時刻における市況コメント」を生成するようタスクについて説明する指示を記述する.「\#\#\#」に続く 2 行目以降に,少数ショット事例とコメント生成対象とする数值時系列データを記述する。短期系列のプロンプト表現では,まず冒頭に「時刻日経平均株価」という見出しを与える.その後,左カラムが時刻を表し,右カラムが対応する株価となる表形式のプロンプトとして記述する。長期系列については,「日日経平均株価終值」という見出し行に続き,左カラムに $「 1$ 日前」,「2 日前」等の生成対象時刻から遡る日数を記述し,右カラムに終值を記述する。図 2 において, 少数ショット事例は, 予測対象データと区別し $T_{N}^{\text {shot }}$ と $S_{N}^{\text {shot }}$ のように,添え字の「shot」を付加して記載する.「Output」以降の部分には,ショットの正解コメントである $y^{\text {shot }}$ 記載する. 少数ショット事例についてプロンプトを記述した後,生成対象とする短期系列,長期系列を同様に表形式で記述し,最後に「Output:」と記述し,言語モデルに続きを生成させる.
少数事例の選択: 一般に, 少数ショット学習では,学習データから $\left(T_{N}^{\text {shot }}, S_{N}^{\text {shot }}, L_{M}^{\text {shot }}, y^{\text {shot }}\right)$ の組を無作為に抽出して, 少数ショット事例としてプロンプトに含める. 本研究では,数值時系列データが持つ特性を活用して,同時刻の事例と類似系列の事例の 2 つの方法によって少数事例の選択を行う:同時刻の事例この方法では,予測対象データのコメントが発出された時刻 $t_{1}$ の同時刻の事例を学習データの中から無作為に取得する。同時刻に発出される市況コメントは,類似している場合が多く,ショットに含めることで品質の良い市況コメントが生成できることが期待できる.
類似系列の事例この方法では,予測対象データの短期系列 $S_{N}$ と類似する系列を学習データから取得し,少数ショット事例としてプロンプトに含める。これは,類似する数値時系列データから生成される市況コメントは,類似しているという仮説に基づいている. 本研究では,系列の類似度を測る指標として,ピアソンの相関係数を用いる。相関係数が高かった系列を順に並び替え,ショット数に応じて上位からプロンプトに含める.
## 3 実験
本節では,本研究で行った実験について,データセット,比較手法,評価方法の順に記載する.
## 3.1 データセット
本研究では,既存データ $[1,5,6]$ を使用した. このデータセットには, 数值時系列データと市況コメントが対になった 18,489 事例が含まれている. 数値時系列データは IBI-Square ${ }^{1)}$ から 2010 年 12 月から 2016 年 9 月のデータをを取得したものであり,市況コメントは Nikkei Quick News から取得したものである 2).
学習データ,検証データ,テストデータがそれぞ
1) http://www.ibi-square.jp/index.html
2)データは契約を結べばダウンロード可能である. データの再現性を確保するため,前処理のためのソースコードを公開している.
図 2 少数ショット学習に用いるプロンプトの例
れ,15,035 事例,1,759 事例,1,695 事例となるように分割した. 本研究では,既存研究に従い,短期系列を 1 日の取引の中で 5 分毎に記録された日経 225 の株価 $(N=62)$ とし,長期系列を過去 7 日間の株価の終值 $(M=7)$ とした.
## 3.2 比較手法
## ファインチューニングによる手法 (BART)
Murakami ら [1] によるモデルをべースとしつつ,言語モデルを用いて拡張したモデルで実験を行った。彼らモデルでは,数値時系列データを多層パーセプトロン(MLP)に入力しべクトルに変換した後, そのベクトルを LSTM の Encoder-Decoder に入力することでテキストを出力している.我々のモデルでは,近年の Data-to-Text タスクの研究でよく用いられる事前学習済みの Encoder-Decoder モデルである BART [7]3)を用いた. BART には,事前学習された単語埋め込み層が存在するが,本研究で扱うのは数値時系列データであるため,これらを用いずに,未学習の多層パーセプトロン(MLP)を新たに用意した ${ }^{4)}$ .MLPを用いて短期系列と長期系列の 2 つのデータを 768 の固定サイズのベクトルに変換
し, ${ }^{5)}$ BART を用いたテキスト生成を行う.
## ゼロショット学習と少数ショット学習
LLM として,対話型大規模言語モデルである GPT-3.5を使用した ${ }^{6)}$ ,少数ショット学習では,図 2 に示したプロンプトの形でそのまま使用するが,ゼロショット学習では,少数事例の記述を省略し,予測対象データのみを記述する。予備実験において, ショットに使用されるデータによってモデル性能が大きく変動することが判明したため,異なる seed 值を用いて事例を 10 回抽出して実験し,それらのスコアの平均を報告する.
## 3.3 評価手法
先行研究に従い,自動評価指標として,BLEU, METEOR,BERTScore を用いる。なお,BERTScore の算出には F1 スコアを用いる.BLEU は多くの研究で利用されているが,表層的な単語のみを考慮するため十分とは言えない.意味的な類似性の観点においても評価するため,BERT の埋め込み表現を利用する BERTScore も用いて評価を行う。
## 4 結果
表 1 に結果を示す. 表の上段に LLM を用いた少数ショット学習での値を示す. 少数ショット学習での結果については,ショット数を $0,3 , 5 , 10$ と増やした場合の性能を報告する (0 がゼロショットに対応する). 表の下段は,ファインチューニングによる手法の性能である。
少数ショット事例を含めることの効果について述べる. 市況コメント生成タスクはゼロショットでは BLEU,METEOR,BERTScore の値がそれぞれ 0.01,0.48,60.30 と非常に低い値を示し,十分な性能が得られないことがわかる. 3 ショットにすることで,無作為抽出するべースラインの值はそれぞれ 8.04,24.85,73.14 に大きく上昇する.よって,少数ショット事例をプロンプトに含めることが必要であり,少数ショット事例の選択手法についての研究は重要である.
同時刻の事例を含める提案手法の効果について述べる。学習データ中の同時刻に発出されたコメントをプロンプトに含めると, 3 ショットの設定において BLEU,METEOR,BERTScore の値がそれぞ
れ,13.11,30.34,74.86 に向上した. 無作為に選択しプロンプトを作成するベースラインでの值は,それぞれ 8.04,24.85,73.14であるから,この提案手法によりすべての評価指標での大幅な性能向上を確認した. 少数ショット事例を 10 ショットに増やすと, 各指標で 17.46, 36.33,76.40 にまで向上した.
学習データに含まれる類似系列を探索する提案手法も同様に無作為に抽出するべースラインより良い性能を示した. 特に 10 ショットを含める設定で,類似系列を探索する手法は 17.66,36.52,76.42とすべての評価指標でもっとも高い值を示した.
従来,事実上の標準であったファインチューニングによる手法 (BART) との比較について述べる. BART は,3つの指標において 11.41,30.90,75.94 と無作為に 10 ショットの少数ショット事例を抽出する手法 $(10.67,28.40,74.49)$ よりも高く, 少数ショット事例による手法開発は市況コメント生成に対しては難しい問題であることが分かる。一方,提案手法である「同時刻の事例」と「類似系列の事例」 を選択する提案手法では,BART よりも良い性能を示した. この結果は,従来大規模な学習データを用いたファインチューニングする手法が事実上の標準であった Data-to-text タスクにおいて,時刻の活用といったドメイン知識や類似系列の探索と組み合わせたプロンプトの工夫により,良好な結果が得られることを示すため興味深い。
## 5 関連研究
市況コメント生成は,Data-to-text の設定の一つである. 従来,表 $[8,9]$ ,グラフ $[10,11] ,$ タプルの集合 [12], 数値時系列データ $[1,13,14,15]$ 等の非言語データを対象に研究されている. 本研究で扱う数值時系列データは他の設定と異なり,プロンプトとして記述するための表現方法が明らかではない. 市況コメント生成は従来,大規模な学習データを用いてニューラルネットワークをファインチューニングする手法が一般的だが, ゼロショット学習や少数ショット学習についての研究も始まっている [2].
少数ショット学習における事例選択手法については,極性分析,表からの説明テキスト生成,質問応答,機械翻訳などの問題において,入力テキストの埋め込み表現を用いて学習データ中の類似事例を探索する手法が提案されている [3]. 過去の類似事例をプロンプトに含めることで性能が向上する報告は,我々が本研究で得た知見と一致する。一方, こ
表 1 各比較手法の BLEU, METEOR, BERTScore. 提案手法である「同時刻の事例」は無作為に抽出するベースライン手法よりも良い性能を示した.,「值動きが類似する事例」を選択する手法は同時刻の事例を選ぶ手法よりも良い性能を示した。
れらの既存研究では, RoBERTaなどの事前学習済みのトークン埋め込みを用いるため,市況コメント生成のような数値時系列データにそのまま適用できない. 機械翻訳向けには開発セットでの性能が高くなるように事例を選ぶ手法が提案されている [4]. この手法は市況コメント生成にも適用できる可能性があり,今後適用可能性を検討したい。
## 6 結論
本研究では,大規模言語モデルを用いた少数ショット学習による市況コメント生成タスクに着目し,少数ショット事例を選択する手法を提案した。実験より,同時刻に記述された過去のコメント,過去の類似する値動きにおいて記述されたコメントをプロンプトに含めることで,良好な言語生成能力を得られることを確かめた. ショット事例の選択を適切に行った少数ショット学習による提案手法が, 従来,事実上の標準で良い性能を示していたファインチューニングによる手法よりも良い性能を示すことが分かった.
## 謝辞
この成果は, 国立研究開発法人新エネルギー・産業
技術総合開発機構 (NEDO) の助成事業 (JPNP20006)
による支援の結果得られたものである.
## 参考文献
[1] Soichiro Murakami, Akihiko Watanabe, Akira Miyazawa, Keiichi Goshima, Toshihiko Yanase, Hiroya Takamura, and Yusuke Miyao. Learning to generate market comments from stock prices. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1374-1384, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[2] 川原田将之, 石垣達也, 高村大也. 少数ショット学習による時系列数值データからの市況コメント生成.情報処理学会第 258 回自然言語処理研究会, pp. 1-8.情報処理学会, 2023 年 11 月.
[3] Jiachang Liu, Dinghan Shen, Yizhe Zhang, Bill Dolan, Lawrence Carin, and Weizhu Chen. What makes good in-context examples for GPT-3? In Eneko Agirre, Marianna Apidianaki, and Ivan Vulić, editors, Proceedings of Deep Learning Inside Out (DeeLIO 2022): The 3rd Workshop on Knowledge Extraction and Integration for Deep Learning Architectures, pp. 100-114, Dublin, Ireland and Online, May 2022. Association for Computational Linguistics.
[4] Sweta Agrawal, Chunting Zhou, Mike Lewis, Luke Zettlemoyer, and Marjan Ghazvininejad. In-context examples selection for machine translation. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Findings of the Association for Computational Linguistics: ACL 2023, pp. 8857-8873, Toronto, Canada, July 2023. Association for Computational Linguistics.
[5] Tatsuya Aoki, Akira Miyazawa, Tatsuya Ishigaki, Keiichi Goshima, Kasumi Aoki, Ichiro Kobayashi, Hiroya Takamura, and Yusuke Miyao. Generating market comments referring to external resources. In Proceedings of the 11th International Conference on Natural Language Generation, pp. 135-139, Tilburg University, The Netherlands, November 2018. Association for Computational Linguistics.
[6] Yumi Hamazono, Tatsuya Ishigaki, Yusuke Miyao, Hiroya Takamura, and Ichiro Kobayashi. Unpredictable attributes in market comment generation. In Proceedings of the 35th Pacific Asia Conference on Language, Information and Computation, pp. 217-226, Shanghai, China, 11 2021. Association for Computational Lingustics.
[7] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics.
[8] Ratish Puduppully, Li Dong, and Mirella Lapata. Datato-text generation with content selection and planning. In Proceedings of the Thirty-Third AAAI Conference on Artificial Intelligence and Thirty-First Innovative Applications of Artificial Intelligence Conference and Ninth AAAI Symposium on Educational Advances in Artificial Intelligence, AAAI'19/IAAI'19/EAAI'19. AAAI Press, 2019.
[9] Rémi Lebret, David Grangier, and Michael Auli. Neural text generation from structured data with application to the biography domain. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1203-1213, Austin, Texas, November 2016. Association for Computational Linguistics.
[10] Xuefeng Bai, Yulong Chen, and Yue Zhang. Graph pretraining for AMR parsing and generation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 6001-6015, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[11] Ioannis Konstas, Srinivasan Iyer, Mark Yatskar, Yejin Choi, and Luke Zettlemoyer. Neural AMR: Sequenceto-sequence models for parsing and generation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 146-157, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[12] Claire Gardent, Anastasia Shimorina, Shashi Narayan, and Laura Perez-Beltrachini. The WebNLG challenge: Generating text from RDF data. In Proceedings of the 10th International Conference on Natural Language Generation, pp. 124-133, Santiago de Compostela, Spain, September 2017. Association for Computational Linguistics.
[13] Ernie Chang, Alisa Kovtunova, Stefan Borgwardt, Vera Demberg, Kathryn Chapman, and Hui-Syuan Yeh. Logicguided message generation from raw real-time sensor data. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6899-6908, Marseille, France, June 2022. European Language Resources Association.
[14] Tatsuya Ishigaki, Goran Topic, Yumi Hamazono, Hiroshi Noji, Ichiro Kobayashi, Yusuke Miyao, and Hiroya Takamura. Generating racing game commentary from vision, language, and structured data. In Proceedings of the 14th International Conference on Natural Language Generation, pp. 103-113, Aberdeen, Scotland, UK, August 2021. Association for Computational Linguistics.
[15] Shankar Kantharaj, Rixie Tiffany Leong, Xiang Lin, Ahmed Masry, Megh Thakkar, Enamul Hoque, and Shafiq Joty. Chart-to-text: A large-scale benchmark for chart summarization. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 4005-4023, Dublin, Ireland, May 2022. Association for Computational Linguistics. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A1-2.pdf | # プロンプトチューニングと $\mathrm{kNN-LM$ を組み合わせた リスティング広告のタイトル自動生成
}
児玉壮平 1 星野智紀 ${ }^{2}$ 石塚湖太 ${ }^{2}$
1 東京理科大学大学院 2 株式会社博報堂テクノロジーズ
${ }^{1}$ 8623506@ed.tus.ac.jp
${ }^{2}\{$ tomoki.hoshino, kota. ishizuka\}@hakuhodo-technologies.co.jp
## 概要
リスティング広告のタイトル自動生成には, Fine-Tuning された事前学習済み言語モデルをの活用が盛んである. また, Fine-Tuning はモデルやデータが大規模になると計算コストがより増加する。本研究では,Instruction-Tuning 済みモデルに kNN-LM を導入し,プロンプトチューニングと用例検索によって広告タイトルを生成する。さらに, kNN-LM において用例検索を行うモデルと生成を行うモデルを分けることで,プロンプトチューニングの度に kNN-LM のデータストアを再構築する必要をなくす. 実験によって,提案手法によって広告タイトルの生成品質が向上することを確認し,計算コストを削減できることを確認した。
## 1 はじめに
リスティング広告とは,ランディングページ(以下,LP)の広告をユーザーが検索した検索クエリに関連して表示する広告手法である. 近年,検索クエリと LP の HTML タグ情報を含んだ入力を言語モデル(以下,LM)に与えて,リスティング広告の広告タイトルを自動生成させることが盛んである [1].
現在では,事前学習済み LM に Fine-Tuning を施すことで,広告タイトルを生成することが一般的である。一方,広告タイトルの文字数制限などの規定は掲載するプラットフォームによって変わり,また,社会のトレンドに応じて広告のあり方が変わる. そのため, その度に Fine-Tuning が必要になるが, Fine-Tuning は LM が大規模になると計算コストが増加するため, 広告の規定やトレンドへの対応が困難になる。
本研究では, Instruction-Tuning [2] 済み LM を使用し, さらに kNN-LM [3] を導入して広告タイト
ル生成を行う手法を提案する. Instruction-Tuning 済み LM に対してプロンプトチューニングを行うことで,広告の規定やトレンドに対応する。また, kNN-LM は,入力に対する予測トークンのデータストアを事前に作成し,そのデータストアに対して用例検索を行うことで, Fine-Tuning なしで生成品質を向上させる.
さらに,kNN-LM において,データストアを構築して用例検索をする $\mathrm{LM}$ (以下, $\mathrm{LM}_{\mathrm{kNN}}$ )と生成を行う $\mathrm{LM}$ (以下, $\mathrm{LM}_{\mathrm{gen}}$ )を分ける(図 1). 従来の kNN-LM は, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ は同じものを用い,入力も同じである.そのため,プロンプトチューニングによって入力を変えた場合,その度にデータストアを作り直す必要がある。そこで, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ を分けることによって,データストアと $\mathrm{LM}_{\mathrm{kNN}}$ を固定しつつ, $\mathrm{LM}_{\mathrm{gen}}$ に対してプロンプトチューニングを行うことを可能としている.実験から,提案手法によって Instruction-Tuning 済み LM より最大で ROUGE-1 は 0.117, ROUGE-2 は 0.107 改善したことや, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ で異なる $\mathrm{LM}$ を使うことによって性能の低下がないことを確認し,データストアを作り直す計算コストを削減できることを確認した。
## 2 kNN-LM
kNN-LM では,主に「データストア構築」と「推論時」の二つの段階に分けられる.
## 2.1 データストア構築
通常の文生成では,LM は時刻 $t$ 以前のトークン列 $\mathbf{c}_{<t}=\left(w_{1}, \cdots, w_{t-1}\right)$ が与えられた場合, 次トークン $w_{t}$ の分布 $P\left(w_{t} \mid \mathbf{c}_{<t}\right)$ を推定する [4]. データストア $(\mathscr{K}, \mathscr{V})$ には, $\left(\mathbf{c}_{<t}, w_{t}\right) \in D$ が与えられたとき, $\mathbf{c}_{<t}$ を LM に入力した際に得られるデコーダ最終層
図 1: 自動生成モデルの概要
の中間表現をキーとし,次トークン $w_{t}$ を値として,
$
(\mathscr{K}, \mathscr{V})=\left.\{\left(f\left(\mathbf{c}_{<t}\right), w_{t}\right) \mid\left(\mathbf{c}_{<t}, w_{t}\right) \in \mathscr{D}\right.\}
$
と格納する.ここで,Dは訓練データ, $f(\cdot)$ は入力から LM のデコーダ最終層の中間表現を得る関数である. 本研究では, Khandelwal ら [3] に倣い, フィー ドフォワード層の入力ベクトルを中間表現として用いている.
## 2.2 生成
生成時には,入力のトークン列 $\mathbf{c}_{<t}$ が与えられた際,LM は次トークンの予測出現確率 $P_{g e n}\left(w_{t} \mid \mathbf{c}_{<t}\right)$ と中間表現 $f\left(\mathbf{c}_{<t}\right)$ を出力する. この $f\left(\mathbf{c}_{<t}\right)$ を検索クエリとしてデータストアに近傍探索を行い,距離関数 $d(\cdot, \cdot)$ に基づいて $\mathrm{k}$ 近傍 $\mathcal{N}$ を取得する。その後,負の距離の softmax に基づいて各近傍に対する予測出現確率を
$P_{k N N}\left(w_{t}=y \mid \mathbf{c}_{<t}\right) \propto \sum_{\left(k_{i}, v_{i}\right) \in \mathcal{N}} \mathbb{1}_{y=v_{i}} \exp \left(-d\left(k_{i}, f\left(\mathbf{c}_{<t}\right)\right)\right.$
と計算し,N の中での各語彙に集約する.ここで, $\mathcal{N}$ に現れない語彙の予測出現確率は 0 となる. 本研究では, Khandelwal らに倣い, 距離関数は L2 距離を用いている。最終的な次トークンの予測出現確率は $P_{k N N}$ と $P_{g e n}$ の線形補間によって,
$
P\left(w_{t} \mid \mathbf{c}_{<t}\right)=\lambda P_{k N N}\left(w_{t} \mid \mathbf{c}_{<t}\right)+(1-\lambda) P_{g e n}\left(w_{t} \mid \mathbf{c}_{<t}\right)
$
と計算する.ここで,גはハイパーパラメータである.
## 3 提案手法
## 3.1 概要
本提案手法では広告タイトル自動生成モデルとして, kNN-LM を導入した Instruction-Tuning 済み LM を用い, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ を分けることによって,プロンプトチューニングの度にデータストアを再構築する必要をなくす(図1)。
## 3.2 データストア構築
提案手法では,LP の情報をプロンプトとして与えて,広告タイトルを生成させるが,プロンプト部分は用例検索をする必要がない. そのため,提案手法におけるデータストア構築の際には,プロンプト部分は格納せず,広告タイトルのみ格納する.プロンプト $\mathbf{x}_{k N N}=\left(x_{1}, x_{2}, \cdots, x_{\left|\mathbf{x}_{k N N}\right|}\right)$ と目的広告タイトル $\mathbf{y}=\left(y_{1}, y_{2}, \cdots, y_{|\mathbf{y}|}\right)$ が与えられたとき,時刻 $t$ には,プロンプト $\mathbf{x}_{k N N}$ と時刻 $t$ までの目的広告タイトル $\mathbf{y}_{<t}$ をモデルに入力した際に得られる中間表現 $f\left(\mathbf{x}_{k N N}, \mathbf{y}_{<t}\right)$ をキー, $\mathbf{y}_{t}$ を值として,
$
(\mathscr{K}, \mathscr{V})=\left.\{\left(f\left(\mathbf{x}_{k N N}, \mathbf{y}_{<t}\right), y_{t}\right) \mid\left(\mathbf{x}_{k N N}, \mathbf{y}\right) \in \mathscr{D}\right.\}
$
をデータストアに格納する。
## 3.3 生成
提案手法では $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ と分けているため, それぞれに異なるプロンプトを入力することが可能となる。 $\mathrm{LM}_{\mathrm{kNN}}$ に入力するプロンプトを $\mathbf{x}_{\mathrm{kNN}}$, $\mathrm{LM}_{\mathrm{gen}}$ に入力するプロンプトを $\mathbf{x}_{\mathrm{gen}}$ とするとき,次
表 1: 広告文自動生成の結果
トークンの予測出現確率は
$
\begin{aligned}
& P\left(y_{t} \mid \mathbf{x}_{k N N}, \mathbf{x}_{g e n}, \mathbf{y}_{<t}\right) \\
& =\lambda P_{k N N}\left(y_{t} \mid \mathbf{x}_{k N N}, \mathbf{y}_{<t}\right)+(1-\lambda) P_{g e n}\left(y_{t} \mid \mathbf{x}_{g e n}, \mathbf{y}_{<t}\right)
\end{aligned}
$
と計算される。
## 4 実験
本実験では,従来法と提案法の kNN-LMを用いた広告タイトル生成の性能の差異を検証するため, それぞれの手法で広告タイトルを生成し, その品質を比較する。 $\mathrm{LM}_{\text {gen }}$ は Instruction-Tuning 済み LM で固定し, $\mathrm{LM}_{\mathrm{kNN}}$ は Instruction-Tuning されていない事前学習済み LM を使用した場合と Instruction-Tuning 済み LMを使用した場合の二つの条件で変更した。 また,プロンプトチューニングが及ぼす影響を検証するため, $\mathbf{x}_{g e n}$ と $\mathbf{x}_{k N N}$ それぞれでプロンプトを Few-shot と Zero-shot の両方の条件で変更して実験を行った. 更に,実験結果の信頼性を確認するため,使用するタグ情報を異なるパターンに分けて検証した.
## 4.1 使用データ
使用するデータセットは,検索クエリ,ランディングページ(LP)と広告タイトルの関係を学習するために,独自にスクレイピングすることで得られた表 2: $P_{k N N}$ のみによる自動生成の結果
データである. 各データは検索クエリ,リスティング広告で表示された広告タイトル,LP の HTML から構成されている. データは約 45 万件あり,そのうち $99 \%$ 訓練用,1\%を評価用として使用し,それぞれの内 10\%を Few-Shot の例として使用している.
## 4.2 評価方法
生成品質は参照文との類似性を評価する手法である ROUGE[5] で評価する. ROUGE は ROUGE-1 と ROUGE-2(以下,R-1,R-2)の二通りで評価した.
## 5 結果と考察
## 5.1 結果
4 章の実験の結果を表 1 に示す. ここで, $P_{g e n}$ は $\mathrm{LM}_{\mathrm{gen}}$ のみによる生成の精度を表し, $\mathrm{LM}_{\mathrm{kNN}}-\mathbf{x}_{\mathrm{kNN}}$ はそれぞれのイニシャルで表現している(I-F は Instruction-Tuning 済み LM に Few-shot のプロンプトを,I-Zは Instruction-Tuning 済み LM に Zero-shot のプロンプトを,P-F は事前学習済み LM に Few-shot のプロンプトを,P-Z は事前学習済み LM に Zero-shot のプロンプトを与えた場合を表す)。また,(5)式の $\lambda$ は 0.1 から 0.9 まで 0.1 刻みの間隔で変動させ,最も R-1 が良い値の結果を表に記載している.同じ HTML タグと $\mathbf{x}_{\text {gen }}$ を用いた場合で比較したとき, $P_{g e n}$ のみにる生成より従来法の kNN-LM (背景色赤)の方が最大で R-1 は 0.117, R-2 は 0.107 改善している.
また, $\mathbf{x}_{\mathrm{kNN}}$ を変更した場合(背景色緑)は,従来法の kNN-LM(背景色赤)に比べ,最大で R-1 は 0.023,R-2 は 0.019 の劣化に留まっている。 $\mathrm{LM}_{\mathrm{kNN}}$ を事前学習済み LM とし $\mathbf{x}_{\mathrm{kNN}}$ を Zero-shot とした場合(背景色青)は,従来法(背景色赤)に比べ,最
表 3: 各 $\mathbf{x g e n}_{\mathrm{gen}}$ と $\mathrm{LM}_{\mathrm{kNN}}-\mathbf{x}_{\mathrm{kNN}}$ の組み合わせにおける生成例
大で R-1 は 0.010, R-2 は 0.011 の劣化となっている. $P_{k N N}$ のみによる自動生成の結果を表 2 に示す.同じ HTML タグと $\mathrm{LM}_{\mathrm{kNN}}$ を用いた場合, $\mathrm{x}_{\mathrm{kNN}}$ が Few-shot よりも Zero-shot の方が優位であり,最大で R-1 が $0.034 , R-2$ が 0.023 改善している.
また, 『Amazon 広告自動運用ツール「Commerce Flow (コマースフロー)」』という Amazon 広告の自動運用サービスの $\mathrm{LP}^{1)}$ に対して,実際に生成した広告タイトルを表 3 に示す.ここで,生成例は HTML タグを全て用いた場合を記載している。
## 5.2 考察
表 1 の結果より, $P_{g e n}$ のみによる生成より従来法の kNN-LM による生成の方が優位であるといえる。 これは,用例検索によって広告タイトルでよく用いられる文体を生成することが可能になったからだと考えられる。また,従来法の $\mathrm{kNN}-\mathrm{LM}$ と, $\mathbf{x}_{\mathrm{kNN}}$ を変更した場合や $\mathrm{LM}_{\mathrm{kNN}}$ を事前学習済み $\mathrm{LM}$ に変更した場合を比較したとき,精度の劣化が最大でも R-1 が 0.023 ,R-2 が 0.019 であったことから, kNN-LM においてモデルを分けることによる影響は小さい.
表 2 の結果より, $P_{k N N}$ は $\mathbf{x}_{\mathrm{kNN}}$ が Zero-shot の方が性能が高いと言える. データストアに対する生成時の用例検索の際,例として用いたプロンプトと広告タイトルの情報を含んだべクトルがクエリとなるため,目的となる広告タイトルとは関係のない情報を含んだ上での推論を行う.これが,Zero-shot の方が優位である理由であると考えられる。
次に,実際の生成例に注目する。 $\mathbf{x}_{\text {gen }}$ が Few-shot の場合, 従来法の kNN-LM ( 背景色赤 ) は Instruction-
Tuning 済みモデルのみの生成 $\left(\mathrm{LM}_{\mathrm{kNN}}-\mathbf{x}_{\mathrm{kNN}}\right.$ が「-」) よりも,生成される広告タイトルに Amazon などの重要な単語が含まれており, 商品の詳細が伝わるタイトルになっている。また,提案手法である $\mathrm{LM}_{\mathrm{kNN}}$ や $\mathbf{x}_{\mathrm{kNN}}$ を変えた場合も大きく生成品質が劣化していないことがわかる. $\mathbf{x}_{\text {gen }}$ が Zero-shot の場合も同様に,Instruction-Tuning 済みモデルのみの生成では単語の羅列であった生成タイトルが,kNN-LMを導入することで改善されていることが分かる.
以上のことから,プロンプトをある LM に与えた際の中間表現を用いてデータストアを構築し, $\mathrm{LM}_{\mathrm{gen}}$ と $\mathrm{LM}_{\mathrm{kNN}}$ でモデルを分け, $\mathrm{LM}_{\mathrm{gen}}$ に対してプロンプトチューニングを行うことで,広告の規定やトレンドに対応することが可能であると言える。
## 6 まとめ
本研究では,広告タイトル自動生成モデルとして,kNN-LM 導入した Instruction-Tuning 済み LM を用い, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ を分ける手法を提案した。実験の結果, $\mathrm{LM}_{\mathrm{kNN}}$ と $\mathrm{LM}_{\mathrm{gen}}$ を分けることによる悪影響はなく, むしろ性能が上がる可能性があることを確認した。これにより,プロンプトチュー ニングの度にデータストアを構築する必要がなく, より迅速に広告タイトルの形式的要素のトレンドに対応することが可能となる. 今後の展望として, Fine-Tuning されたLM との精度の比較することや,人手評価による広告効果の検証をすることなどが挙げられる.
## 謝辞
本研究は,株式会社博報堂テクノロジーズのインターンシップとして実施した.
## 参考文献
[1] 村上聡一朗, 星野翔, 張培楠. 広告文自動生成に関する最近の研究動向. 人工知能学会全国大会論文集, Vol. JSAI2022, No. 1P5GS601, 2022.
[2] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned language models are zeroshot learners. In International Conference on Learning Representations, 2022.
[3] Urvashi Khandelwal, Omer Levy, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Generalization through memorization: Nearest neighbor language models. In International Conference on Learning Representations, 2020.
[4] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
[5] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[6] Khalid Alnajjar and Hannu Toivonen. Computational generation of slogans. Natural Language Engineering, Vol. 27, No. 5, pp. 575-607, 2021.
[7] Stamatina Thomaidou, Ismini Lourentzou, Panagiotis Katsivelis-Perakis, and Michalis Vazirgiannis. Automated snippet generation for online advertising. In Proceedings of the 22nd ACM International Conference on Information \& Knowledge Management, CIKM '13, pp. 1841-1844, New York, NY, USA, 2013. Association for Computing Machinery.
[8] Kevin Bartz, Cory Barr, and Adil Aijaz. Natural language generation for sponsored-search advertisements. In Proceedings of the 9th ACM Conference on Electronic Commerce, EC '08, pp. 1-9, New York, NY, USA, 2008. Association for Computing Machinery.
[9] 大曽根宏幸, 張培楠. Gpt-2 の転移学習によるキー ワードを考慮した広告文生成. 人工知能学会全国大会論文集, Vol. JSAI2021, No. 2D4OS7b03, 2021.
[10] 黒木開, 石塚湖太, 川上孝介, 中田和秀. 複数の指定語句を必ず含むリスティング広告の自動生成. 言語処理学会年次大会発表論文集, Vol. 28, pp. 1339-1343, Mar 2022.
[11] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing:
System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics.
[12] Uri Alon, Frank Xu, Junxian He, Sudipta Sengupta, Dan Roth, and Graham Neubig. Neuro-symbolic language modeling with automaton-augmented retrieval. In International Conference on Machine Learning, pp. 468485. PMLR, 2022.
[13] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billionscale similarity search with GPUs. IEEE Transactions on Big Data, Vol. 7, No. 3, pp. 535-547, 2019.
表 4: 各モデルの入力テンプレート
\\
## A 関連研究
## A. 1 広告文自動生成
近年のインターネット広告市場の急速な規模拡大によって,広告文自動生成技術の需要が高まり,広告文自動生成に関する研究が盛んになっている [1].広告文自動生成の対象は大きく分けて,リスティング広告,キャッチコピーの 2 つがある. リスティング広告とは,ユーザーが検索した検索クエリに関連したランディングページの広告を検索結果に表示する広告である.キャッチコピーは,商品やサービスに対して,顧客の興味を惹きつけるために用いられる。
テンプレートを用いた広告文自動生成は,人手で作成したテンプレートを用いるため, 文法的に正確に魅力的な広告文を生成しやすくなる. Alnajjar らは,キャッチコピー自動生成において,既存のキャッチコピーの内容語等を空欄化したテンプレー トを用いている [6]. また,テンプレートに挿入するキーワードを, n-gram の自己相互情報量に基づいて LP から重要なキーワードを抽出する手法や [7], テンプレートと挿入するキーワードの書体を揃えたり,修飾語を追加したりすることによって適切にキーワードを挿入する手法 [8] が提案されている.
最近の広告文自動生成では,大規模なテキストコーパスで事前学習された言語モデルの活用が進んでいる。 大曽根ら [9] は, 事前学習された GPT-2 に対して広告文自動生成用に Fine-Tuning することで,広告文自動生成が実現できることを報告している。 さらに,BERT2BERTを用いた複数の指定語句を必ず含む手法などが提案されている [10].
## B プロンプトチューニング
表 4 に本実験で使用した入力のテンプレートを示す. 事前学習済み LM の場合には,文の続きを生成させるテンプレートを用いる.また, Instruction-Tuning 済み LM の場合には,「ユーザー:」 の後に指示を記載し,「システム:」の後に応答を生成させるテンプレートを用いる.プロンプトが Few-shot の場合には,例を 2 つ前に記載する.
## C 実験の詳細設定
## C. 1 計算機
実験における計算機は,NVIDIA DGX PODを 1 基使用した. NVIDIA DGX POD には,CPUとして AMD EPYC 7742 @ $2.25 \mathrm{GHz}$ (64コア)が 256 基搭載されており,メモリは2TB で,OS は Ubuntu 20.04 である。また,GPU として NVIDIA A100 80GB を 8 基搭載している。
## C. 2 実装
生成に用いる LM として Hugging Face Transformers [11] にてLINEヤフー社が公開している3.6B の事前学習済みモデルと Instruction-Tuning 済み $\mathrm{LM}^{2}$ )を用いた. kNN-LM の実装には kNN-Transformers [12] を使用し,従来法と提案法の近傍探索には FAISS [13] を使用した。
## C. 3 パラメータ
近傍探索数は, 従来法と提案法共に $\mathrm{k}=1024$ としている。その他のパラメータは kNN-Transformers [12] に準拠している.
2) https://huggingface.co/line-corporation | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A1-3.pdf | # 複数の属性に対する評価を含む宿泊施設レビューに対する 多様な返信の自動生成
村越裕太白井清昭
北陸先端科学技術大学院大学 先端科学技術研究科
\{yuta.murakoshi,kshirai\}@jaist.ac.jp
## 概要
本研究は,宿泊施設に関する低評価レビューに対し,定型的で当り障りのない表現を用いずに,レビューワーが苦情を述べている全ての属性について言及した返信を生成することを目的とする。レビュー中の全ての属性に言及するために,レビュー を文に分割し,それぞれの文に対して系列変換モデルで返信を生成した後,それらを統合する。系列変換モデルを学習する際には,属性に言及していない返信,定型的な表現が含まれる返信を訓練データからあらかじめ削除する.実験の結果,特に複数の属性を含むレビューに対し,提案手法によって自動生成された返信の品質が向上することを確認した。
## 1 はじめに
宿泊施設のオンライン予約サイトの中には,ユー ザがレビューを書き,宿泊施設がそれに対して返信できるサイトも存在する.宿泊施設にとって,大量のレビューに対して返信することの負担は大きいが,低い評価のレビューに対して返信を返さないとユーザの不満が解消されず,宿泊施設の評判を落とすことにつながる。そのため,ユーザのレビューに対する返信を自動生成する技術が求められる.
本研究は,宿泊施設に関する低評価レビューに対し,それに対する適切な返信を生成することを目的とする。この際,以下の 2 つの点に留意する。ひとつは多様な返信の生成である。生成モデルは当たり障りのない一般的な表現を生成する傾向がある [1] が,「申し訳ありません」「ご迷惑をおかけしました」 など謝罪を表す定型的な表現を生成するだけでは, ユーザは宿泊施設が事務的な対応をしているという印象を持ち,ユーザの不満が解消されない可能性がある。もう一つは,ユーザが宿泊施設に関する複数の属性に対して不満を表明しているとき,その全
ての属性に言及することである。例えば,ユーザが 「部屋の清掃」「フロントの対応」の2つの点について苦情を述べているのに,それらに対して言及しない,あるいはどちらか一方にしか言及しない場合, ユーザに不誠実な印象を与える。上記の目的を達成するため,ユーザレビューを入力,返信を出力とする系列変換モデルを学習するが,定型的な表現の抑制やレビュー中の属性に対する網羅的な言及を実現するための手法を探究する.
## 2 関連研究
アプリのレビューやホテルのレビューに対する返信を自動生成する先行研究について述べる. Gao らは,アプリケーションのユーザレビューを入力,それに対する返信を出力とする RNNによる Encoder-Decoder モデルに,カテゴリー,レビューの長さ, ユーザー評価, 感情スコアの 4 つの情報を attention 機構を用いて組み込む手法を提案した [2]. Kew と Volk は,レビューと返信の組からなるデータセットから返信生成モデルを学習すると,多くのレビューに対して用いられる汎用的な表現を含む返信が生成されやすいという問題に対処するため, 訓練データにおける返信の汎用性のスコアを算出し,そのスコアが閾値以上の返信を訓練データから除外する手法を提案した [3]. 日本語で書かれたレビュー に対して返信を自動生成する研究として,伊草と鳥海は,宿泊予約サイトに書き込まれたレビューに対して適切な返信を自動生成するために,ユーザーによる評価値と返信の長さの情報を組み込んだ RNN による Encoder-Decoder モデルを提案した [4].
先行研究では,ユーザレビューにおける複数の評価対象の属性に網羅的に言及することは留意されていない. 本研究では, 宿泊施設の低評価レビューについてはユーザの不満の全てに言及することが重要と考え,それを実現する方法を探究する。また,
図 1 提案手法の概要
Kew と Volk の手法 [3] を参考に,当り障りのない表現の生成を抑制することにも取り組む。
## 3 提案手法
## 3.1 概要
提案手法の概要を図 1 に示す。まず,句点を文境界として,レビューを文に分割する,次に,苦情判定モデルを用いて,個々の文が苦情か否かを判定し,苦情と判定されなかった文を削除する (3.2 項).苦情を含むレビュー文に対し,系列変換モデルを用いて宿泊施設の返信を生成する (3.3 項). 最後に,生成された返信文を統合して,最終的な返信を生成する (3.4 項).
レビュー全体を入力として返信を生成すると,複数の苦情を含むレビューに対してはその全てが言及されない可能性がある。 そのため, 複数の属性は異なる文に現れると仮定し,それぞれの文から属性に対する言及を含む返信を生成する。これにより,レビュー内の複数の属性 (苦情) に対して網羅的に返信することを狙う。
返信生成モデルならびに苦情判定モデルの学習には楽天データセット [5] における楽天トラベルのデータ (以下,「楽天トラベルデータセット」と呼ぶ) を用いる。同データセットは宿泊施設に対するユー ザレビューとそれに対する宿泊施設の返信を含む。 また,ユーザレビューには「苦情」「感想・情報」などのラベルが付与されている.
## 3.2 苦情判定
本研究では苦情に対する返信を生成することを主たる目的としているため,レビューから苦情を含まない文をあらかじめ削除する。このため, 文がユーザの苦情を含むか否かを判定する二値分類器を学習する. 分類モデルとして Bidirectional Encoder Representations from Transformers(BERT)[6] を用いる.具体的には, 東北大学が公開している BERT base Japanese [7] をファインチューニングする.訓練デー夕として,楽天トラベルデータセットにおける「苦情」ラベルが付与されたレビューを正例,それ以外のレビューを負例として用いる。正例と負例の数は同数とする。ただし,提案手法における苦情判定の対象はレビューではなく文であるため,楽天トラべルデータセットにおけるレビューのうち 1 つの文から構成されるレビューのみを訓練データとして用いる.
## 3.3 応答文生成モデル
苦情を含むと判定されたレビュー文に対し,それに対する宿泊施設の返信を生成する。このため,レビュー文を入力,宿泊施設の返信を出力とする系列変換モデルを学習する。系列変換モデルとして BART を利用し, 日本語事前学習済みモデル [8] をファインチューニングする。 ファインチューニングのための訓練デー夕として,楽天トラベルデー夕における「苦情」のラベルが付与されたレビューとそれに対する返信の組を用いる。ただし, 1 節で述べた我々が望ましいと考える返信を生成するため,訓練データに対して 2 種類のフィルタリングを行う。
## 3.3.1 属性に言及しない応答のフィルタリング
ユーザがレビュー上で述べている宿泊施設の属性に対する返信を生成するため,属性に言及していない返信を訓練デー夕から除外する。あらかじめ宿泊施設の属性を表す単語 (属性語) の集合 $A$ を定義し, レビューと返信の両方に同じ属性語 $a_{i}(\in A)$ が出現していない組,ならびに属性語が 1 つも出現していない組を削除する。
属性語は宿泊施設のレビュー集合における特徴的な単語とする,具体的には,式 (1) によって各単語のスコアを算出し,その上位 500 件の単語を属性語集合 $A$ とする。
$
S\left(w_{i}\right)=\text { ave }_{r_{j} \in T O P_{1000}\left(w_{i}\right)} \operatorname{TF}-\operatorname{IDF}\left(w_{i}, r_{j}\right)
$
ここで, $R$ は苦情ラベルが付与されたレビューの集合, $r_{j}$ はそのレビュー, $\operatorname{TF}-\operatorname{IDF}\left(w_{i}, r_{j}\right)$ は $R$ を全文書集合としたときの単語 $w_{i}$ のレビュー $r_{j}$ におけ
る TF-IDF, $T O P_{1000}\left(w_{i}\right)$ は TF-IDF 値の大きい上位 1000 件のレビューの集合であり, $S\left(w_{i}\right)$ はその 1000 件の TF-IDF の平均値と定義する。抽出された属性語の例を表 1 に示す.
表 1 宿泊施設の属性語の例駐車部屋排水予約タバコシャワー 臭い風呂対応朝食タオル掃除エアコン温度ポイントトイレ髮の毛バス禁煙喫煙清掃空調ルームプランカード換気匂いカーテン料理冷蔵
## 3.3.2 定型文のフィルタリング
多様な返信を生成するために,すなわち紋切り型の返信が生成されるのを抑制するために,訓練デー 夕における返信から定型文を除外する。文献 [3] に倣い,宿泊施設の返信を文に分割し,それぞれの文 $s_{i}$ に対して定型度スコア $C\left(s_{i}\right)$ を算出し, その上位 $30 \%$ の文を定型文として削除する.この処理の後の訓練デー夕は,レビューと,それに対する元の返信から定型文を除いたテキストの組となる。
定型度スコア $C\left(s_{i}\right)$ は式 (2)のように定義する。
$
C\left(s_{i}\right)=\text { ave }_{t g_{i j} \in s_{i}} \operatorname{fre}\left(t g_{i j}\right)
$
ここで, $t g_{i j}$ は文 $s_{i}$ に出現する単語 tri-gram, fre は訓練デー夕におけるその出現頻度であり, 定型度スコアはその平均と定義する。
## 3.4 返信文の統合
分割したそれぞれのレビュー文から返信生成モデルによって生成された返信文をマージし,最終的な返信を得る。返信文の順序は, 生成元のレビュー 文のレビューにおける出現順序と同じとする。ただし, 返信文は独立に生成しているため, 類似した文や表現が重複して返信に含まれる可能性がある。重複する表現を除外するため,2つの返信文間の距離を正規化された編集距離 [9](編集距離を 2 文の長さの和で割った値) で測り,それが 0.1 以下の場合, 元のレビューにおける出現順序が後である返信文を残し,もう一方の返信文を除外する。ただし,属性語を含む返信は常に除外しないものとする。
## 4 評価
## 4.1 苦情判定モデルの評価
楽天トラベルデータから,苦情ラベルが付与されているレビューとそうでないレビューを同じ数だけ取得し, 訓練デー夕 (約 32,000 件) とテストデー夕
(約 8,000 件) を作成した。これらのデー夕を用いて苦情判定モデルを評価したところ,苦情クラス検出の $\mathrm{F}$ 値は 0.890 , 苦情か否かの二値分類の正解率は 0.887 となり,十分に高いことを確認した。
## 4.2 返信生成モデルの評価
## 4.2.1 実験データ・実験条件
返信生成モデルの学習ならびに評価に用いたデー 夕の統計を表 2 に示す。楽天トラベルデータにおけるレビューと返信の組のうち,90\%を訓練デー夕, $5 \%$ 開発デー夕,5\%をテストデータとした。開発データは研究の初期段階で訓練データのフィルタリング手法を検討するために, テストデー夕は自動評価 (結果は付録 B で報告する)のために用いた。 3.3.1 と 3.3.2で述べたフィルタリング処理により, 訓練データのデータ数は約 $29 \%$ 減少した。
返信生成モデルに使用した BARTをファインチューニングする際のハイパーパラメ夕として, 最大エポック数は 5 , 学習率は $3 e^{-5}$, ドロップアウト率は $p=0.3$ と設定した。
## 4.2.2 返信生成モデルの評価
提案手法によって生成された返信生成モデルを人手により評価する。ここでは以下の 5 つの手法を比較する。また,返信生成タスクの上限としてデータセットの返信も評価する。
BASELINE ベースライン。訓練デー夕に対するフィルタリングは行わない. 図 1 に示したようにレビューを文に分割しそれぞれの文から生成された返信を統合する処理は行う。
PRO-A-S 訓練デー夕に対して属性に言及しない応答のフィルタリング (3.3.1)を行う。文分割と返信文の統合処理も行う.
PRO-C-S 訓練デー夕に対して定型文のフィルタリング (3.3.2)を行う.文分割と返信文の統合処理も行う。
PRO-AC レビューを文に分割してから返信を生成するのではなく, レビュー全体を入力として返信を生成する.訓練デー夕に対する上記 2 つのフィルタリング処理も行う。
PRO-AC-S 訓練データに対して2つのフィルタリング処理を行い,文分割と返信文の統合処理も行う。
GOLD データセットにおいて宿泊施設が実際に書いた返信
表 2 に示したテストデータからランダムに 50 件のレビューを選択し, 上記の 5 つの手法で生成された返信ならびに GOLDを人手で評価する。評価者は著者 2 名を含む日本語母語話者 7 名である. 評価項目を以下に述べる。
流暢性返信が自然な日本語であるかを 5 段階で評価する。
非冗長性返信に同じような表現が繰り返されていないかを 5 段階で評価する。表現の繰り返しが多いほど低い評点を与える。
総合評価苦情を書いたレビュワーの立場から見て,宿泊施設からの返信として適切であるかどうかを 5 段階で評価する。
属性への言及レビューでユーザが苦情を述べてい
る属性のそれぞれについて,返信でそれについて触れているか否かを判定する。属性はあらかじめ被験者以外の人が抽出しておく。
実験結果を表 3 に示す。評価値は 7 名の被験者による評点の平均である. 属性言及率とは, 評価対象の 50 件のレビューに出現する属性のうち, 返信内で言及されたものの割合である。アスタリスク $\left(^{*}\right)$ は $\mathrm{t}$ 検定によって BASELINE との有意差 $(p<0.01)$ が確認できたことを示す。
表 3 返信生成モデルの人手評価の結果
BASELINE と比べて,属性に言及しない応答のフィルタリングを行う提案手法 (PRO-A-S,PRO-ACS) では属性言及率が高い。ユーザが苦情を述べている属性に対して何らかの返信をするという本研究の目的がある程度達成できている。一方, 流暢性と非冗長性のスコアは BASELINE と比べて低くなっている。属性に対する言及が増えたことにより, 同じような表現の繰り返しが増え, 流暢性も損われたと考えられる。提案手法では, 個々のレビュー文に対
する返信文を統合する際に類似した返信文を除外する処理をしているが,属性を含む文は除外しないことにしているため,似ている表現を完全に排除できていない。属性言及率と流暢性・非冗長性はトレー ドオフの関係にあると言える。
定型文のフィルタリングに着目すると, PRO-C-S は BASELINE と比べて非冗長性が改善され, 流暢性や総合評価も高い. 紋切り型の表現の生成が抑制されていることが確認できた。
PRO-AC と PRO-AC-S を比較すると, 属性言及率は PRO-AC-S の方が高いが, 流暢性・非冗長性の指標は PRO-AC の方が高い,文ごとに返信を生成し,最終的にそれを統合する方法では,レビュー中の属性に対して漏孔なく言及することができるが,レビュー全体を一括して処理する手法と比べて文の自然さが損われたり類似表現の繰り返しが生じているためである。総合評価では PRO-AC の方が高いことから,文ごとに返信を生成する方式の有効性は認められない。ここで, 属性が 2 つ以上存在する 22 件のレビューのみを対象にした評価結果を表 4 に示す。PRO-AC の属性言及率は BASELINE よりも悪く, 総合評価も PRO-AC-S と比べて低い. 属性が 1 つしかないレビューに対しては,文ごとに返信を生成しても属性言及率を上げる効果は少ないが,複数の属性を含むレビューについては,レビューを文に分割してから返信を生成する提案手法が有効に働くと言える。
表 4 複数の属性を含むレビューに対する返信生成モデルの人手評価の結果
提案手法による返信の生成例を付録 $\mathrm{A}$ に示す.
## 5 おわりに
本研究では, 複数の属性に対して苦情を述べたレビューに対する宿泊施設の返信を自動生成する手法を提案した。今後の課題として,返信文を統合する処理の改善が挙げられる. 例えば, 抽象型要約生成モデルによって複数の返信文から要約を作成することにより,より自然で同じような表現の繰り返しが少ない返信を生成する方法が考えられる。
## 参考文献
[1] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. International Conference on Learning Representations, pp. 1275-1312, 2020.
[2] Cuiyun Gao, Jichuan Zeng, Xin Xia, David Lo, Michael R. Lyu, and Irwin King. Automating app review response generation. In Proceedings of the 34th IEEE/ACM International Conference on Automated Software Engineering (ASE), pp. 163175, 2019 .
[3] Tannon Kew and Martin Volk. Improving specificity in review response generation with data-driven data filtering. In Proceedings of the Fifth Workshop on e-Commerce and NLP (ECNLP 5), pp. 121-133, 2019.
[4] 伊草久峻, 鳥海不二夫. レビュー特性を用いたレビュー返信の自動生成. 人工知能学会全国大会 (第 35 回) 論文集, pp. 2F3-GS-10g-01, 2021.
[5] 情報学研究データリポジトリ楽天データセット,(2023-12 閲覧). https://www.nii.ac. jp/dsc/idr/rakuten/.
[6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019.
[7] BERT base Japanese (IPA dictionary, whole word masking enabled) - Hugging Face, (2023-12 閲覧). https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking/.
[8] BART 日本語 Pretrained モデル - LANGUAGE MEDIA PROCESSING LAB, (2023-12 閲覧). https://nlp.ist.i.kyoto-u.ac.jp/?日本語Pretrained モデル。
[9] Vladimir I Levenshtein. Binary codes capable of correcting deletions, insertions, and reversals. In Soviet physics doklady, Vol. 10, pp. 707-710, 1966.
[10] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic eval- uation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the $\mathbf{2 0 1 6}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, 2016.
表 5 生成された返信の例
## A 生成された返信の例
あるレビューに対する BASELINE, PRO-AC-S, GOLD の返信を表 5 に示す。このレビューでユーザが不満を表しているのは「禁煙室の案内」「風呂の温度」「シャワーの強さ」の 3 点である. BASELINE では「風呂の温度」に対してしか謝罪していないのに対し, PRO-AC-Sでは 3 つの属性全てに言及して謝罪している。
## B 返信生成モデルの自動評価
訓練データのフィルタリングの効果を自動的に評価する. 自動評価尺度として BLEU[10] と DISTINCT[11]を用いる,BLEU は,データセットにおける宿泊施設の返信を正解とし,自動生成された返信が正解とどれだけ似ているかを評価する。 DISTINCT は, 評価デー夕に対して生成された返信テキストの多様性を評価する。いずれも単語 3-gram を基にした指標 (BLEU-3 と DISTINCT-3)を用いる.実験結果を表 6 に示す.ここでは文毎に返信を生成して統合するのではなく,レビュー全体をモデルの入力としている. フィルタリング処理をした方が DISTINCT が高くなっていることから, 定型文のフィルタリングにより, ありきたりな文の生成が抑制され,様々な表現の文が生成されるようになったと言える。一方,BLEU はフィルタリング処理をし
ない方が高い.これは,フィルタリング処理をしないデータから学習されたモデルでは定型文が生成されることが多いが,評価デー夕における正解の返信にも定型文が多く, 両者で単語 n-gram が一致することが多いためと考えられる。
表 6 返信生成モデルの自動評価結果
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A1-4.pdf | # 答案診断グラフを用いた国語記述式答案への フィードバックの生成
古橋萌々香 1,2 舟山弘晃 1,2 岩瀬裕哉 1,2 松林優一郎 1,2
磯部順子 2 菅原朔 4 乾健太郎 ${ }^{3,1,2}$
1 東北大学 2 理化学研究所 ${ }^{3}$ MBZUAI 4 国立情報学研究所
\{furuhashi.momoka.p4, h. funa, yuya.iwase.t8\}@dc. tohoku.ac.jp
y.m@tohoku.ac.jp yoriko.isobe@riken.jp
saku@nii.ac.jp kentaro.inui@mbzuai.ac.ae
## 概要
学校教育現場では記述式問題が盛んに使われている.しかし,人手による記述式の答案の採点では,学習者の答案に対して個別最適なアドバイスが難しいという問題がある. 本研究では, 国語の記述式問題を対象に,学習者の答案の誤りに応じた個別のフィードバックを生成するシステムの構築を目指す.その手法として,実際の教育現場で扱われている本文の論理構造関係に着目し, 本文の論理構造,談話関係,フィードバックのテンプレートを統合した答案診断グラフと呼ぶ構造を構築し, 答案に記述されている内容と模範解答の内容の対応から, 適切なフィードバック文を生成する枠組みを提案する。
## 1 はじめに
国内の国語教育では,与えられた文章を読んで, その内容に関する設問について数十字程度の答案で記述する記述式問題が盛んに使われている。こうした記述式問題は, 文章を適切に理解し, 論理的な思考力や表現力を育むことができる一方で,実践的な課題も生じている. 第一に,選択式問題と比べ,記述式の答案に対する採点や教育的なコメントの付与は教師に多大な負担を強いる. 第二に, 記述式問題の答案は多様な誤りを含み, 改善の要素として注目すべき点も個々の答案によって異なるため,適切なアドバイスのためには,それぞれの学習者の誤り方に応じた対応が必要である. しかし, 通常の採点結果では正否や得点のみが返却されるため,誤答の理由が不明瞭になりがちであり, 学習者は画一的な解答・解説文を読んで自ら振り返るほか術がない。
本稿では,こうした記述式問題を教育実践に適応
図 1 本研究のフィードバック生成の概要図. 答案診断グラフは採点基準と関係ラベル,フィードバックのテンプレートの要素が含まれている.答案の根拠箇所から類似度を用いて参照箇所を推定し,模範解答と答案の参照箇所の比較を行う。そして,参照箇所に紐づいているテンプレートをもとにフィードバックを生成する.
する上での課題を改善するため,学習者の答案の誤りに応じた個別のフィードバックを生成するシステムの構築を目指す. 第一の課題については,近年,記述式答案の自動採点システムの研究が盛んに行われている. Mizumoto ら [1] や Sato ら [2] の研究では,答案に対して,項目点の採点根拠となる箇所が明膫となるように,複数個ある採点項目ごとに採点の根拠箇所と点数を出力している. 読解問題の記述式答案に対するフィードバック生成の先行研究として岩瀬ら [3] の研究が挙げられる. 岩瀬らは, 既存の談話構造ラベルを用いて本文構造グラフとテンプレートを作成し,フィードバックを生成した. 本研究では,この手法を拡張し,教育現場で扱われている関係論理構造ラベルを調査し再定義するとともに,問題横断的な答案の分析をもとにフィードバッ
クテンプレートの種類を拡充した (4節). 図 1 に拡張したフィードバック生成の概要を示す. この方法では, 自動採点システムが各答案に対して出力する項目点の根拠箇所を利用し, 答案内の該当フレーズが参照している本文の箇所を推定し,この参照箇所と模範解答との論理的関係に基づいて予め定めておいたテンプレートを選択することで, 学習者の答案の誤りに応じた個別のフィードバックを生成する. システムは,各採点項目に対し $50 \%$ 以上の精度で適切なフィードバックを生成することが確認できた.
## 2 データセット
本研究では,理研記述問題採点データセット $[1,4]$ を題材としてフィードバックの生成を行う.このデータセットには問題ごとに答案と採点者によってアノテーションされた点数のペアが含まれている.採点基準は複数の独立した採点項目に分かれており, 採点項目ごとの得点(項目点)とその項目点に関連付けられる答案中の部分文字列(根拠箇所)がアノテーションされている (付録 A). いくつかの採点基準はさらに細分化された小項目に分類されているが,データセットでは小項目ごとのアノテーションはなされていない. 本研究では, 小項目に対しても詳細なフィードバックを返却するために, 小項目ごとに根拠箇所を追加でアノテーションした.
本研究では,本文中のある文(傍線部)に対して, その理由を説明させる問題を傍線部説明問題と呼ぶ.この問題タイプは,利用するデータセット内で最も数が多い問題であったため,これらをフィードバック生成の対象として取り上げた. また,データセットに含まれる全 13 問のうち,5 問に対して 4 節で説明する答案診断グラフを作成し,この中からさらに 2 問を対象として,フィードバック生成の評価実験を行った。
## 3 フィードバック生成タスク
本研究では,学習者が記述した答案の誤りに対して,学習者の読解力向上に寄与することを目指しフィードバックを生成する。効果的なフィードバックを生成するためには,学習者の答案を細分化して,誤りを特定する必要がある.そこで,我々は採点基準に含まれる独立した採点項目ごとに,フィー ドバックの生成を目指す.
Mizumoto ら [1] は,採点項目ごとに項目点を予測し,さらに,その項目点に関連付けられる根拠箇所
図 2 作成した答案診断グラフの例. ノードには問題本文を適切な単位で分割した文と模範解答を番号で置き換えたものが格納されている. エッジは実際の教育現場で扱われている教科書や参考書を参考にして我々が設計したラベルセットを使用している.ノードに我々が作成したフィードバックのテンプレートが 1 対 1 で紐づいている.
を特定する自動採点タスクを提案した.この自動採点タスクに従い, 本研究におけるフィードバック生成は,自動採点モデルから学習者の答案と出力される項目点,およびその根拠箇所を入力として受け取り,適切なフィードバックを出力するタスクとして定義する。
## 4 フィードバックの設計
本研究では,岩瀬ら [3] の手法を参考にし,より教育現場に適応したフィードバックを生成する. その概要を図 1 に示した. このフィードバック生成において中核的な役割を果たすのは答案診断グラフである。答案診断グラフは,問題文本文に含まれる各文と模範解答をノードとして持ち,それらの論理関係を表す関係ラベルをエッジとして持つグラフ構造である.フィードバック生成の過程では,まず入力された答案の根拠箇所と各ノードの類似度を計算することで,その答案が参照しているノード(参照箇所)を推定する。次に,答案の参照箇所と模範解答との間に張られた関係ラベルより,その差分を明らかにすることでフィードバックに使用するテンプレートを決定する。本節では,このようなフィードバックの設計について詳しく述べる.
## 4.1 答案診断グラフ
本研究で対象とする傍線部理由説明問題は, 本文中のある文について,その理由や根拠を本文に則して説明する問題である。したがって,答案は本文中のある特定箇所の書き抜きや,言い換えや要約表現
表 1 採点項目ごとの参照箇所推定精度 (\%).Y14_2-2_1-4 とY15_1-1_1-4 はそれぞれ採点項目 A と C に小項目を含む.
を含む.誤答は誤った箇所の書き抜きや言い換えで構成されるため, その箇所と模範解答との論理関係を明らかにすることで,その誤答と模範解答との間のギャップを分析することができる。そこで,本文中の文と模範解答をノードとして持ち,それらの論理関係をエッジとして持つ答案診断グラフを作成した. 答案診断グラフの例を図 2 に示す.
グラフを作成するためには,本文中の文章間の関係をラベル付けする必要がある.このラベルは,後のフィードバック生成時に学習者にとって理解理解しやすい説明を与える関係として設計する必要がある。そこで,Rhetorical Structure Theory (RST) [5] の関係ラベルを出発点として,これらのラベルと教育現場で使用されている複数の教科書や問題集に記載のある関係ラベルとの対応を整理し,最終的なラベルセットを設計した.
答案診断グラフの作成に当たっては,まず,問題本文を一文単位に分割し,設問の参照箇所はさらに適切な単位に人手で細分化し,これらをノードとした. さらに,採点基準をもとに模範解答の該当する部分文字列をノードに追加した. 次に,各ノード間にその文間の関係を表すラベルを人手で付与し, それをエッジとした. 最後に,各エッジに対して後述するテンプレートを紐づけて,さらに各ノードに段落番号や問題を解くためのヒントなどの,テンプレートに適用するための情報を付与して答案診断グラフを構築した。
## 4.2 テンプレートの構築
テンプレートの構築にあたって,我々は分析対象の 5 問について,開発セットに含まれる答案の誤答のタイプを問題横断的にいくつかの共通したパター ンに分類することを試みた。この手続きは,はじめに各答案に対して理想的と思われるフィードバックを人手で作成し,この内容を類型化して整理し,最終的に 10 種類の問題横断的なフィードバックテンプレートを構築した (付録 B). 例として,模範解答と比べて参照した本文の要素が不十分であるときに用いられるテンプレートを以下に示す:
\{根拠箇所 $\}$ だけでは $\{$ 採点基準 $\}$ の要素が不十分です. 参照した $\{$ 段落番号 $\}$ と関係のある段落から,\{ヒント $\}$ 着目して, もう一度確認してみましょう.
このテンプレートには,答案の根拠箇所が参照している答案診断グラフのノードに応じて,参照箇所の段落番号や該当する採点基準の抜粋など,付加的な情報を挿入することができる。
一方で,問題や採点項目ごとに特有の性質が存在するため, 問題横断的な枠組みで対応することが困難な誤りタイプが存在することもわかった。そこで,我々は採点基準に応じて,採点項目固有のテンプレートを追加した. 採点項目固有のテンプレートについては,以降の生成実験で用いる 2 問に対してのみ作成した.この 2 問に含まれる計 8 個の採点項目のうち,3つの採点項目については固有のテンプレートが用いられた。
## 4.3 フィードバックの生成
フィードバックの生成は,答案の根拠箇所を入力として採点項目ごとに行う. 採点根拠箇所のトークン列に対し,訓練済み Sentence-BERT [6] ${ }^{1)}$ を用いて埋め込み表現を得る,同様に,答案診断グラフの各ノードに対応するトークン列に対しても予め埋め込み表現を得ておき,これらと答案の根拠箇所のコサイン類似度を計算し,最も類似度の高いノードを答案の参照箇所と推定する。この結果,答案診断グラフにおいて,対象の部分採点項目に対して,推定された参照箇所が答案に記載された場合に選択されるテンプレートが決定される。このテンプレートは,模範解答に対応するノードと答案診断グラフ内の各ノードとの論理関係から予め各ノードに対して紐付けられている,最終的に,参照箇所のノードに含まれた段落番号などの付加情報をテンプレートに埋め込むことでフィードバックを生成する.
## 5 実験
実験では 4 節で提示したフィードバック設計に従ってフィードバックの自動生成を行い,その有効性について確かめる. 特に本研究で提示した設計では,各答案の参照箇所を正しく推定することが,適切なテンプレートを選ぶために重要である。そこで答案の参照箇所の推定精度に注目してフィードバッ
1)計算速度と性能を考慮してhttps://huggingface.co/ microsoft/MiniLM-L12-H384-uncasedを用いた
表 2 生成されたフィードバックの例. 一つの部分採点項目に対応するフィードバックのみを記載している。根拠箇所の表現はほとんど同じであるにも関わらず,異なるフィードバック文が出力されている,上の例では正しく参照箇所を推定できているが,下の例では,参照箇所の推定を誤っているため不適切なテンプレートが用いられている.
ク生成システムの評価を行う。
## 5.1 実験設定
岩瀬ら [3] 同様,本研究でも学習者にとって有益なフィードバックを生成することが目的であるため,採点項目について満点と 0 点の答案を扱わない.また,フィードバックの生成について集中的に分析を行うために,各採点項目の根拠箇所は,デー タに付与されている教師信号を利用する. 4.2 節で述べたように,実験では Y14_2-2_1-4 と Y15_1-1_1-4 の 2 問を用いて評価した。それぞれ評価データとして 205 件(採点項目 C のみ 203 件)と 90 件の答案を用いた。
## 5.2 結果
データセットには参照箇所に関する情報は含まれていないため,参照箇所の推定精度を人手で確認した. 参照箇所の推定精度を表 1 に示す. Y14_2-2_1-4 の採点項目 A2,B や Y15_1-1_1-4 の A のように 95\% を超える高い精度を示した採点項目があることが分かる. これらの採点項目では,根拠箇所が比較的短く, 本文中の特定単語の抜き書きのみが根拠箇所として答案に含まれているため根拠箇所の多様性に乏しいことが,その理由として考えられる。一方で, Y15_1-1_1-4 の採点項目 B や C2 のように参照箇所を適切に推定することが困難な採点項目も見られた。 これは本文の内容を要約し, 学習者自身の言葉で表現している答案が多いことや根拠箇所の字数が多いことなどが要因として考えられる.
表 2 に,フィードバックの生成例を示す.この例から「表現すること」と「表現」のように,動詞の活用形の差のような小さな要素が参照箇所の推定に影響を及ぼすことが確認できる。この結果は適切なフィードバックテンプレートを選択するためのさらに優れた方法をを考える必要があることを示唆している.
## 6 関連研究
教育工学におけるフィードバック教育分野において,フィードバックは学習者が現在の理解と「望ましい理解」のギャップを縮小するために有効である [7]. 一方で,学習者にとって「良いフィードバック」を一意に定めることは難しいことが知られている $[8,9,10]$. その要因として,フィードバックの受容には学習者の好みや習熟状況,そして内容の間接性など様々な要因が関与していることが挙げられる. しかし,いずれの場合でも,テストの点数に加えて,短いコメント文の形でフィードバックすることは有効であることが示されている $[11,12]$. 本研究では, 問題の解き方の過程を提示する間接的なフィードバックを選択した。
フィードバックの自動生成本研究で扱う読解問題の記述式答案に対するフィードバック生成の先行研究として岩瀬ら [3] の研究が挙げられる. 岩瀬らは英語の談話関係コーパスの代表例である Penn Discourse Treebank (PDTB) [13] のタグセットを用いて,問題本文に含まれる文に対して関係ラベルを付与し本文構造グラフを作成した. 関係ラベルに応じたテンプレートを作成することでフィードバック生成を試みた。
## 7 おわりに
本研究では,記述式問題の本文と模範解答との論理的関係性を表す答案診断グラフを用いてフィードバックを生成する枠組みを提案した.また,答案の誤答タイプを分析し,フィードバックのテンプレー 卜を構築した. 実験により,我々のシステムは各採点項目に対し $50 \%$ 以上の精度で適切に参照箇所を推定し,フィードバックを生成できることが確認できた. 今後は,生成方式のより詳細な検討によって精度の改善をはかるとともに,教育現場での実証実験を行い,本研究で設計したフィードバックの有効性について調査することを予定している.
## 謝辞
本研究は JSPS 科研費 JP22H00524, JST 次世代研究者挑戦的研究プログラム JPMJSP2114 の助成を受けたものです。実際の模試データを提供していただいた学校法人高宮学園代々木ゼミナールに感謝します.また,フィードバックのテンプレート作成にあたり, 東北大学大学院情報科学研究科長濱准教授より助言を賜りました.ここに深謝の意を表します.
## 参考文献
[1] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, August 2019.
[2] Tasuku Sato, Hiroaki Funayama, Kazuaki Hanawa, and Kentaro Inui. Plausibility and faithfulness of feature attribution-based explanations in automated short answer scoring. In Maria Mercedes Rodrigo, Noburu Matsuda, Alexandra I. Cristea, and Vania Dimitrova, editors, Artificial Intelligence in Education, pp. 231-242, Cham, 2022. Springer International Publishing.
[3] 岩瀬裕哉, 舟山弘晃, 松林優一郎, 乾健太郎. 文章構造グラフを用いた国語記述式答案への自動フィー ドバック生成. 言語処理学会第 29 回年次大会, pp. 1333-1338, 2023 .
[4] Hiroaki Funayama, Yuya Asazuma, Yuichiroh Matsubayashi, Tomoya Mizumoto, and Kentaro Inui. Reducing the cost: Cross-Prompt pre-finetuning for short answer scoring. In Artificial Intelligence in Education, pp. 7889. Springer Nature Switzerland, 2023.
[5] William C. Mann and Sandra A. Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87-190, Information Sciences Institute, June 19871987.
[6] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112019.
[7] John Hattie and Helen Timperley. The power of feedback. Review of Educational Research, Vol. 77, No. 1, pp. 81-112, 2007.
[8] 村山航. テスト形式が学習方略に与える影響. 教育心理学研究, Vol. 51, No. 1, pp. 1-12, 2003.
[9] Valerie J. Shute. Focus on formative feedback. Review of Educational Research, Vol. 78, No. 1, pp. 153-189, 2008 .
[10] 鈴木雅之. ルーブリックの提示による評価基準・評価目的の教示が学習者に及ぼす影響. 教育心理学研究, Vol. 59, No. 2, pp. 131-143, 2011.
[11] Hedy McGarrell and Jeff Verbeem. Motivating revision of drafts through formative feedback. ELT Journal, Vol. 61,
No. 3, pp. 228-236, 072007.
[12] Zichao Li, Prakhar Sharma, Xing Han Lu, Jackie Cheung, and Siva Reddy. Using interactive feedback to improve the accuracy and explainability of question answering systems post-deployment. In Findings of the Association for Computational Linguistics: ACL 2022. Association for Computational Linguistics, 2022.
[13] Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The Penn Discourse TreeBank 2.0. In Nicoletta Calzolari, Khalid Choukri, Bente Maegaard, Joseph Mariani, Jan Odijk, Stelios Piperidis, and Daniel Tapias, editors, Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA).
## A 理研記述式問題データセット
図 3 に理研記述式問題データセットより抜粋した問題,答案およびその項目点と根拠箇所,そして採点基準の例を示す。この問題の採点項目 $\mathrm{A}$ におる採点基準はさらに $\mathrm{A} \oplus , \mathrm{~A}$ という小項目に分類されている.本研究では,これらの小項目に対して新たに根拠箇所と項目点のアノテーションを行った.
図 3 理研記述問題採点データセットの答案(上)と採点基準の抜粋(下)(上):A_score, B_score, ‥項目点, $0 / 1$ は根拠箇所の有無を表している. (下) : 左側 : A は採点基準, 右側 : A は採点項目, $\mathrm{A} \oplus, \mathrm{A} \odot \cdots$ は細分化した小項目.
## B フィードバックテンプレート
表 3 に作成したテンプレートを示す. 本研究では,10 個の問題横断的なテンプレートを作成し,さらに,問題や採点基準特有の誤り方に対応するために,問題ごとのフィードバックテンプレートを作成した. フィードバックの生成では, \{\} で囲まれた部分を, 4.3 節で説明した方法で対応する表現に置き換える.
表 3 作成したテンプレートの一覧. \{\} で囲まれた部分をそれぞれ対応する表現や情報に置き換えることでフィードバックを生成する.
& \{採点基準 $\}$ という要素は適切に読み取れています. \\
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A1-5.pdf | # 多様なクイズを自動生成する手法およびその検証
小林俊介 河原大輔
早稲田大学理工学術院
\{carlike787@toki., dkw@\}waseda.jp
## 概要
クイズは、高齢者の認知機能維持や、エンターテインメントに利用されており、多様なクイズ問題の作成が必要である。しかし、人手による大量の作問にはコストがかかるため、自動生成が望ましい。本研究では、質問生成モデルの学習手法や入出力形式を変更し、多様なクイズ問題の自動生成について検証する。提案手法を用いて生成された問題は、多様な問題を生成することが確認できた。また新規の Wikipedia 記事から問題を生成できることも確認でき、システムの有効性が示された。
## 1 はじめに
近年、クイズがエンターテインメントのみならず、ビジネスや医療などへ応用されている。クイズを解くという行為には、思考力・判断力の向上や、記憶力・判断力の維持というメリットもあり、この観点から高齢者の認知機能維持のためにクイズが応用される例1)もある。しかし、クイズ問題の作問は、少量であれば人手でも負担が少ないものの、大量となると高コストになってしまう。
また、クイズを解くという行為は、自然言語処理においては質問応答タスクに該当する。しかし日本語の質問応答データセットは、英語のものと比べて量が少ないため、データの自動生成による拡張が有効な手法であると期待される。
本研究では、クイズ問題を自動で生成するシステムの構築に取り組む。クイズは問題と解答のペアで成立するが、同じ解答を導くための根拠となる知識は複数存在するため、問題で言及される内容は多様性を有すると考えられる。本研究では、多様な問題の生成を目指し、問題生成時の入出力形式を複数パターン提案し、比較検証する。通常は、根拠となる文書と想定解答を入力し、問題を出力する。しかし、入力または出力として指定する要素が少ない場
1) https://www.kaigo-antenna.jp/magazine/detail-54/合、より制限のない問題生成が可能になり、多様性に富んだ問題が出力されることが期待される。本研究では、想定解答を入力しない場合と、解答と問題を同時に出力する形式での生成を試みる。また、問題が訓練データに過適応しないよう、2つの文章の類似度をスコアリングする BERTScore [1]を用いて、学習時の損失関数を制御する工夫を取り入れる。本研究は低コスト化を念頭に置き、大規模言語モデルを使用しない前提で実験を行った。
入出力形式を変化させて問題生成を行った結果、文書のみから問題を生成する形式で多様性が高くなった一方で、文書と解答から問題を生成することで、より矛盾のない適切な問題を生成できることが分かった。また、損失制御によって、学習時のみならず推論時にも、元から存在する問題と異なる問題を生成できることを確認した。さらに、最新の Wikipedia 記事を入力することで、学習で使用されなかった文書であっても適切な問題を生成できることを確認した。
## 2 関連研究
英語における質問応答データセットでは、関連文書を与えて質問に答える形式のものが多く、SQuAD [2]、TriviaQA [3]、Natural Questions [4]などがある。日本語における質問応答タスク用のデータセットには、JGLUE [5] に含まれている JSQuAD、クイズ形式の質問文で、日本語 Wikipedia を関連文書とする JAQKET [6] などがある。SQuAD と TriviaQA では訓練用の質問が 100,000 件前後、 Natural Questions では 300,000 件以上用意されている。一方で JSQuAD は訓練用データで 64,000 件弱、 JAQKET では評価用を合わせても 24,000 件弱と、英語データセットに対して一桁少ない。
問題の生成については、Du ら [7] が DNNによる質問生成を行い、精度を改善させたことから、特にテキスト生成が可能な言語モデルによる質問生成が行われてきた。Murakhovs’ka ら [8] は、1つの比較的
図 $1 \quad N=3$ における問題生成の流れ
長い文書を入力とし、異なる解答を持つ複数の質問を生成できる MixQGを提案している。既存モデルから $10 \%$ 以上の精度向上を達成しているが、入力が 1 文書であり、複数の文書を参照した質問にはなっていない。日本語においても、折原ら [9] により、日本語 $\mathrm{T} 5$ モデルを用いて、ニュース記事からクイズを生成する試みが行われた。既存のクイズサービスに掲載されている質問を例に、生成されたクイズが単に正答を問うだけではなく、面白みのあるクイズになっているかについて考察している。しかし、 ここでも入力する記事は 1 つだけであり、また使用された訓練データ数も 220 件と少ない。また、著者ら [10] は、複数の文書を入力とした質問生成を行い、質問応答データセットの拡張によって、質問応答システムの精度を向上させている。
## 3 提案手法
## 3.1 入出力形式の変更
本研究の目標は、多様なクイズ問題の生成である。これを実現するためには、1つの文書だけでなく複数の文書を生成時に用いることが重要であると考えられる。著者ら [10] に従い、この要素を満たす $\mathrm{FiD}$ を本研究での問題生成で用いるモデルとする。 FiD [11] はもともと、テキスト生成モデルの 1 つである T5 [12]を用いて、Izacard ら [11] が提案した質問応答モデルで、解答生成の際に複数の文書から情報を得られるという特徵がある。本研究で使用するモデルは FiD と同一の構造であり、入出力の形式が異なるのみである。質問応答タスクでは、FiDの入力は、問題文と、読解すべき文書のタイトルおよび内容を入力するが、本研究では、問題文の代わりに解答と、解答を含む関連文書 $N$ 個を入力する。 $N=3$ の場合の問題生成の流れを図 1 に示す。
## 3.2 学習時の損失制御
この入力形式では問題のみを生成することになるが、他の形式による生成も考えられる。具体的に
は、関連文書のみを入力し、問題を生成することで、解答に制限されずに問題を生成できる。また、関連文書のみを入力し、問題とともに解答を同時に出力することも可能である。これらの条件では、入力時の解答に縛られない問題生成が可能であり、問題の多様性につながると期待される。
モデルの学習は、教師データを用いた教師あり学習により実施する。ただし、通常の学習を実施すると、教師データに類似した問題を生成してしまい、多様性を失う。そこで、学習時の損失関数を制御し、教師データを模倣しすぎない学習方法を提案する。具体的には、BERTScore [1]を用いて、学習時に生成された問題と、教師データの問題の類似度を計算し、損失の大きさを制御する。BERTScore は、2つの文章の意味的類似度を算出する指標で、値が大きいほど類似している2)。FiD の学習では、各トークンで損失を計算し、それらの総和を最終的な損失とする。本研究では、損失を逆伝播する前に、BERTScore の算出で得られた値を用いて、高い類似度のときに損失を低減する処理を行う。具体的には、生成された問題 $Q_{g}$ 、教師データの問題 $Q_{t}$ 、言語モデルの損失 $L_{L M}$ 、BERTScore のしきい值 $B_{\text {target }}$ を用いて、以下のように損失 $L$ を定義する。
$
L=L_{L M} *\left.\{B_{\text {target }}-\operatorname{BERTScore}\left(Q_{g}, Q_{t}\right)\right.\}
$
これにより過学習を防ぎ、類似した問題の生成を防ぐことが期待される。
## 4 実験
## 4.1 実験設定
2020 年から質問応答タスクのコンペティション 「AI王」のデータセットとして JAQKET データセットが利用されている。本研究では、同コンペティションの第 2 回大会 ${ }^{3}$ で提供されている、JAQKET
2)BERTScore は 0 から 1 までの値をとり、全く関連のない文章同士では 0.6 程度になる。
3) https://sites.google.com/view/project-aio/ competition2
をベースとしたクイズ形式のデータセット、および日本語 Wikipedia 記事の文書集合4)を用いた実験を行う。各問題には前処理として、Elasticsearch ${ }^{5}$ を用い、各問題の解答を含む関連文書 ${ }^{6}$ が抽出されている。本研究ではこのデータのうち、学習用と評価用のデータセットを用いて、関連文書が 3 つ以上存在するデータを抽出し、データセットを構築した。
FiD で用いる日本語 T5 モデルは、Hugging Face Hub に存在するものを用いた7)。問題生成で使用する文書数は、関連文書のうち 3 つとした。 $B_{\text {target }}$ は 0.9 に設定し、生成時は各入力に対し、 beam search により生起確率の高い出力 7 つを取得した。
前半の実験では、入出力の形式を変更すること (3 節) で、生成される問題に変化があるか調査した。実験では入出力形式として、「文書と解答を入力し、問題を生成」「文書のみを入力し、問題を生成」、「文書を入力し、問題と解答を生成」の 3 パターンを実験し、テストデータでの出力を問題の多様性と、生成結果の適切性から評価した。問題の多様性については、対話システムの評価指標で用いられている Distinct [13] により評価する。この指標は、生成結果に含まれるすべての n-gram のうち、ユニークなものがどれだけ存在するかという割合を計算するもので、Distinct-nとも呼ばれる。本研究では、1-gramと 2-gram を基準とし、テストデータでの出力を用いて、以下の設定における Distinct-1、2を計算した。
1. 各入力に対し、最も生成確率が高い問題を抽出し、Distinct を計算
2. 各入力から生成された 7 つの問題で Distinct を計算し、このスコアをテストデータ全体で集計乙平均を算出
また、多様性の確保には、1つの文章だけでなく、複数の文章を用いることが重要であると考えられる。そこで無作為に抽出した 50 問を評価対象として、問題がいくつの文書を参照して生成されているかを人手評価し、問題が複数の視点を有するものになっているかについても評価した。
生成結果の適切性については、生成確率の最も高い生成結果と、テストデータに存在する問題との
表 1 生成確率が最大の問題における、テストセット全体での Distinct と BERTScore
表 2 生成した問題 7 つにおける Distinct の、テストセットでの平均
BERTScoreを計算し評価する。
後半の実験では、BERTScore による損失関数の制御の効果を検証する。モデルは損失関数の制御を行うものと、行わないものの 2 種類で学習した。効果の検証は、以下の 3 つの手法により行った。
1. 学習中の BERTScore の変化を、2,000 ステップずつ平均したものの推移を調査
2. 1 入力から生成された 7 つの問題で Distinct を計算し、最終的な平均を算出
3. テストデータを入力した際の、全生成結果における BERTScore の平均を算出
## 4.2 実験結果と議論
## 4.2.1 入出力形式と問題の多様性
Distinct 及び BERTScore による評価結果を表 1 と表 2 に、人手による評価結果を表 3 に示す。
問題の多様性については、表 1 ではいずれも低い値になり、差があまり見られなかった。生成時に用いる文書は異なっていたが、問題の形式とするために「誰でしょう?」「何でしょう?」という文末を多く生成した。この影響で、ユニークな n-gram が少なくなり、スコアが低くなったと考えられる。表 2 では、文書のみから問題を生成する形式が Distinct-1、 2 の双方で最高のスコアとなった。解答による制限がなくなったことで、問題生成時の条件が減り、多様な問題の生成につながったと考えられる。
表 3 の人手評価でも、文書と解答により問題を生成するパターンが、複数の文書を参考にした問題を最も多く生成した。加えて、参考文書がない問題の生成数も最も少なかった。解答を指定した問題生成であったため、他 2 つのパターンと比べ、複数の文
表 3 生成時に参考にした文書の数
表 4 損失制御と Distinct ・ BERTScore
書であっても注目すべき部分が明確になったことにより、多様性につながったと考えられる。
表 1 の BERTScore による適切性の評価では、文書と解答により問題を生成するパターンで最も高いスコアとなり、文書のみから問題を生成するパターンのスコアが最も低くなった。生成時に入力・出力する情報を多くすることで、生成結果がより適切なものになると考えられる。
## 4.2.2 損失制御の効果
学習中の BERTScore の変化を図 2 に、Distinct と BERTScore の算出結果を表 4 に示す。
図 2 から、制御を行ったモデルでは、学習時の BERTScore の上昇が、制御を行わなかったものと比較して緩やかになっている。学習終了時点で、制御を行ったモデルと行わなかったモデルを比較すると、BERTScore の平均値は 0.008 異なっていた。また、表 4 を見ると、BERTScore や Distinct-1 では大きな差がなかったものの、Distinct-2では、損失制御を行ったモデルが高いスコアになっており、多様な言葉を生成していることが確認できる。従って、損失制御を行った方が、既存の問題と異なる、多様な問題を生成できる傾向にあると確認できた。
## 5 新規 Wikipedia 記事から問題生成
$\mathrm{AI}$ 王のデータセットは JAQKET をべースとしているが、JAQKET は全てのデータが 2019 年時点の日本語 Wikipedia データに基づくものである。 Wikipedia に掲載される記事は日々増加するため、新規に制作された記事での生成も重要である。そこで、本実験では、2023 年 6 月に初版を発行した $2 \supset$ の記事「スリーポインテッド・スター」と「マルス信州蒸溜所」を用いて、問題生成を検証した。 4.1 節の条件と同様に、各記事から 3 つの文書を人手で抽出した後、人手で作成した想定解答とともに FiDへ
図 2 学習時の BERTScore の変化
入力し、 7 つの問題を生成した。生成された問題の例を以下に示す。
1.「スリーポインテッド・スター」から生成した例おなじみのスリーポインテッドスターが特徴的な、ダイムラーとベンツが合併して誕生した自動車メーカーは何でしょう? (想定解答: メルセデス・ベンツ)
2.「マルス信州蒸溜所」から生成した例長野県上伊那郡宮田村にある、日本初の本格焼酎の蒸留所は何でしょう? (想定解答: マルス信州蒸留所)
これらの問題は、いずれも入力された文書の内容との矛盾が見られず、適切な問題となっている。以上から、Wikipedia の記事を用いることで、最新の情報に関する問題を生成できることが確認できた。
## 6 おわりに
本研究では、多様なクイズ問題の生成を試みた。これを実現するため、入出力形式の検証や、 BERTScore を用いた損失関数の制御を行った。
入出力形式を変化させた場合、文書のみから問題を生成する形式で多様性が高くなった一方で、文書と解答から問題を生成することで、より複数の視点を踏まえた問題を生成できていることが分かった。 また、損失制御によって、学習時のみならず推論時にも、元から存在する問題と異なる問題を生成できることを確認した。さらに、最新の Wikipedia 記事を入力することで、新たな知識であっても適切な問題を生成できることを確認した。
今後の研究では、クイズの面白さを定量化、評価する手法や、面白いクイズを生成できる文書を選択する手法について追及したい。
## 謝辞
本研究はキオクシア株式会社の委託研究において実施した。
## 参考文献
[1] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020.
[2] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics.
[3] Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1601-1611, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[4] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, Kristina Toutanova, Llion Jones, Matthew Kelcey, MingWei Chang, Andrew M. Dai, Jakob Uszkoreit, Quoc Le, and Slav Petrov. Natural questions: A benchmark for question answering research. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 452-466, March 2019.
[5] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[6] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET: クイズを題材にした日本語 QA データセッ卜の構築. 言語処理学会第 26 回年次大会 (NLP2020)発表論文集, pp. 237-240, Online, March 2020. 言語処理学会.
[7] Xinya Du, Junru Shao, and Claire Cardie. Learning to ask: Neural question generation for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1342-1352, Vancouver, Canada, July 2017. Association for Computational Linguistics.
[8] Lidiya Murakhovs'ka, Chien-Sheng Wu, Philippe Laban, Tong Niu, Wenhao Liu, and Caiming Xiong. MixQG: Neural question generation with mixed answer types. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 1486-1497, Seattle, United States, July 2022. Association for Computational Linguistics.
[9] 折原良平, 鶴崎修功, 森岡靖太, 島田克行, 狭間智恵,市川尚志. クイズビジネスにおける作問作業支援.言語処理学会第 28 回年次大会 (NLP2022) 発表論文集, pp. 1401-1405, Online, March 2022. 言語処理学会.
[10] 小林俊介, 河原大輔. 複数文書の読解を要する質問の自動生成と質問応答システムへの応用. 言語処理学会第 29 回年次大会 (NLP2023) 発表論文集, pp. 2616-2621. 言語処理学会, March 2023.
[11] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 874880, Online, April 2021. Association for Computational Linguistics.
[12] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[13] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
## A 新規記事による問題生成で使用した文書
5 節で行った新規 Wikipedia 記事からの問題生成において、例として示した問題の生成時に入力として用いた文書を以下に示す。
なお、以下の記事はいずれもクリエイティブ・コモンズ表示・継承ライセンスの下で公表された、スリーポインテッド・スター及びマルス信州蒸溜所の各記事の文章をそのまま引用している。
1. スリーポインテッド・スター
(a) スリーポインテッド・スターとは、メルセデス・ベンツの自動車などに使用される標章である。
(b) 1926 年 6 月 28 日にダイムラー社はベンツ社と合併してダイムラー・ベンツとなり、車両の名は「メルセデス・ベンツ」が用いられ始めた。合併に際して両社の標章を融合させる形でメルセデス・ベンツ車の標章としてのスリーポインテッド・スターが完成した。
(c) 合併後、車両のブランド名はダイムラー社の「メルセデス」とベンツ社の「ベンツ」を合わせて 「メルセデス・ベンツ」となり、新たなスリーポインテッド・スターがエンブレムやフードマスコットとして用いられるようになった。
2. マルス信州蒸溜所
(a) マルス信州蒸溜所(マルスしんしゅうじょうりゅうじょ、Mars Shinshu Distillery)は、長野県上伊那郡宮田村にあるジャパニーズ・ウイスキーの蒸留所。
(b) マルス信州蒸溜所は 1985 年に本坊酒造によって設立された。本坊酒造は 1872 年創業の会社で、 1909 年からは鹿児島県の津貫で本格焼酎の製造を手がけていた。
(c) マルス信州蒸溜所には熟成庫が 4 つある。そのうち第 4 熟成庫は 2020 年の大改修で新設されたものである。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-1.pdf | # 前後段落を用いて生成した単語分散表現による 日本語語義曖昧性解消の検証
前原太陽 1 竹中要一 2
1 関西大学大学院 総合情報学研究科 2 関西大学 総合情報学部
suisougakuperc@gmail.com takenaka@kansai-u.ac.jp
## 概要
近年、言葉の意味をベクトルで表現する分散表現を用いることで、コンピュータが言葉の意味を扱いやすくなった。しかし、多義語の語義㖟昧性解消という問題が依然として存在している。語義㖟昧性解消とは、多義語の文章中での語義を判定することである。これはコンピュータが言語の意味を処理するために重要な作業である。本研究では日本語の語義曖昧性解消を目指し、異なる語義のクラスタ間の分散は大きく、クラスタ内の分散は小さくなるように、分散表現を生成する方法を提案、検証する。提案するモデルは、対象段落の前後の段落のデータを用いる。既存手法と提案手法の両方で分散表現を生成し、クラスタ間分散とクラスタ内分散、総合評価を行う。
## 1 はじめに
言語には同じ単語に複数の意味が紐づく多義語が存在する。例として「頭」という文字を岩波国語辞典第五版で調べてみる。「頭」という漢字の読みとしては「あたま」「かしら」「ず」「がしら」の4種類が存在しており、それぞれに語義が定義されている。「あたま」という読みには「動物の脳(や目・口・耳・鼻)がある部分。かしら。こうべ。」や「頭と関係が深い次のもの。」「頭に似たもの。」「あたまかず。人数。」といった 4 語義が存在する。さらに、 4 語義の中でも「頭と関係が深い次のもの。」と「頭に似たもの。」にはより細かい語義が定義されており、一番細かく分類されている語義数で「頭」の語義を数えると、合計 13 語義が存在する (表 1)。
「頭が追い付かない」という文章の場合、文章に出てきた「頭」という文字が「動物の脳がある部分」 として使われているわけではなく、「脳の動き」という語義として使われている。人間にとっては文章
\\
中に使われている単語の語義を、文脈から判断することは比較的容易であるが、コンピュータにとってはまだ難しい課題となっている。
自然言語処理记おける語義曖昧性解消 (Word Sense Disambiguation, WSD) とは文章中で使用されている多義語の文章中での語義を判定するを正しく判別することをいう。WSD はコンピュータによる文章の意味理解の精度を向上させるために重要な夕スクであると言える。
本研究では WSDを目的とした分散表現の生成方法を提案する。分散表現の生成方法としては「文脈埋め込みの分散表現」である BERTを用いる。 Transformers[1] で提供されている基本的なモデルである BertModelを継承した提案モデルを作成し、新たに学習をするわけではなく、事前学習モデルを利用した上で、分散表現を生成したい多義語を含む段落の前後段落を提案モデルに入力し、分散表現を生
成する。
分散表現を利用してWSDを目指した研究は過去にもいくつか報告されている。菅原ら [2] は Word2Vec によって生成された分散表現を用い、多義語の素性を前後の分散表現を並べたものとした。提案した素性を用いて語義曖昧性解消タスクを行ったところ、従来の単語の素性を用いた場合に比べ高い精度を達成した。また、曹ら [3] は BERT が文脈埋め込みの分散表現であることに注目し、生成された分散表現を教師あり学習を行った分類器で WSD を行ったところ、高い精度であったことを報告した。
本研究では多義語が持つ語義をそれぞれ一つのクラスタとし、文中に出現する単語を要素とする。単語に分散表現を紐づけることで、クラスタ内分散やクラスタ間分散の計算が可能となる。
また、目標としては語義のクラスタ内分散を小さく、同時に語義同士のクラスタ間分散を大きくすることで、語義の判別を行いやすくすることである。提案手法と従来の BertModel で分散表現を生成したのち、語義のクラスタに関して Pseudo F の值を計算し、比較する。
## 2 手法
## 2.1 BERT
BERT [4] は 2018 年に Jacob らによって提案された Transformer[5] を活用した自然言語処理の深層学習モデルである。主に翻訳や文章分類、質問回答などの分野で活用されており、各タスクに特化したライブラリも公開されている。
BERT はラベルなしの大量の文章データを元に行う「事前学習」と、ラベル付きデータを用いて特定分野や特定タスクに特化した形にモデルのパラメー タを調整する「ファインチューニング」の 2 段階で学習を行う。
また、事前学習は「マスク付き言語モデル」と 「Next Sentence Prediction」の 2 つの方法によって、対象言語の法則を学習させる。「マスク付き言語モデル」では文章中のトークンを [MASK] という特殊トークンに置換する。全トークンのうち、 $15 \%$ を [MASK] に置き換え、残りの $75 \%$ のトークンから [MASK] が元々どのようなトークンだったかを予測するタスクによって学習を行う。「Next Sentence Prediction」は大力した 2 つの文章が連続している文章かどうかを判断するタスクによって学習する。
## 2.2 BertModel
BertModel は Transformers のクラスのひとつであり、文章を大力として、トークンの分散表現を出力することができる。また、Transformers では提供されていないような特定のタスクに特化したクラスを作成する際の継承元のクラスとしても利用されている。BertModel を使う際は、事前にトークナイザを用いて、文章をトークン ID に変換する必要がある。
トークナイザからの出力を BertModel に入力することによって、それぞれの単語に対して 768 次元の分散表現を生成する。BertModel で分散表現を生成する流れを図 1に示す。なお、図中で embedding 層に入力するトークン列の長さは 256 に設定している。
## 2.3 Sentence-BERT
Sentence-BERT(SBERT)[6] は 2019 年に Reimers らによって発表された、BERT を改良したモデルである。元々の BERT も文章分類や FAQ の自動生成といった文章に関する精度が高いものとして知られているが、データ量が増えると計算時間が膨大になってしまうという課題が存在した。SBERT は BERT が抱える計算効率の低さを改善しただけではなく、文章を扱うタスクにおいて精度が高いモデルとして報告されている。
## 2.4 提案モデル
提案モデルを図 2に示す。BertModelへの入力としてトークナイザからの出力に加え、トークナイザの入力として利用した段落の前後の段落の分散表現を、追加情報として入力する。前処理として前後段落の分散表現をSBERT を用いて生成する。
提案モデルによる分散表現の生成は、BertModel に入力したトークン ID が embedding 層を通過するまでは従来の BertModel と同様の動作とする。
相違点としては embedding 層の出力を、前処理で生成した SBERT の出力と結合させたのちに encoder 層に入力する点である。encoder 層からの出力から SBERTを結合した領域を削除し、最終的な単語の分散表現とする。
図 2 提案モデル
## 3 実験
## 3.1 条件
提案手法において生成した分散表現が語義曖昧性解消に寄与することを検証するために実験を行った。分散表現を生成する文章として、奥村らが作成した Semeval-2010 Japanese WSD Task[7] のデータセットを用いた。SemEval-2010 Japanese WSD Task は書籍や白書、新聞といったテキストデータを分かち書きし、それぞれの単語に語義 IDを付与した合計 1980 件のデータセットである。
本研究では学習済みモデルとして乾らが公開している cl-tohoku/bert-base-japanese-whole-wordmasking [8]を利用する。提案モデルに使用する前後段落数は 10 段落とし、embedding 層へ入力するトー クン列の長さは 256 とした。なお、SemEval-2010 Japanese WSD Task ではすでに分かち書きがされているため、BertJapanseTokenizerをトークナイザとしては利用せず、トークン IDへの変換のみを行った。実験では語義曖昧性解消の評価対象として、活用のない名詞のみを対象とした。
## 3.2 Pseudo F
BertModel と提案モデルで生成した分散表現において、語義ごとのクラスタの変化量を評価する値として、Calinski らによって提案された Pseudo F[9] を用いる。
Pseudo F の定義を式 (1) に示す。 $k$ はクラスタ数を表し、 $E$ は要素 $n$ の集合である。 $W_{k}, B_{k}$ は式 (2)、
式 (3) でそれぞれ表され、 $W_{k}$ はクラスタ内分散の和を、 $B_{k}$ はクラスタ間分散を表す。また, $c_{q}$ はクラスタ $q$ における中心、 $C_{q}$ はクラスタ $q$ 内の要素の集合である。
$
\begin{gathered}
\text { Pesudo } F=\frac{\operatorname{trace}\left(B_{k}\right)}{\operatorname{trace}\left(W_{k}\right)} \times \frac{n_{E}-k}{k-1} \\
W_{k}=\sum_{q=1}^{k} \sum_{x \in C_{q}}\left(x-c_{q}\right)\left(x-c_{q}\right)^{T} \\
B_{k}=\sum_{q=1}^{k} n_{q}\left(c_{q}-c_{E}\right)\left(c_{q}-c_{E}\right)^{T}
\end{gathered}
$
Pseudo F はクラスタ間の距離をクラスタ内分散の合計で割ったものであるため、クラスタ間の距離が大きく、クラスタ内分散が小さほど Pseudo F の値が大きくなる。したがって、Pseudo F の値が大きいほど本研究の目標の目的である、語義ごとのクラスタが判別が行いやすくなっていると言える。
## 4 結果
BertModel と提案モデルを比較するために提案モデルにおける Pseudo F、クラスタ内分散、クラスタ間分散の值を BertModel の值で割った值を用いる。式 (4) で示す值が 1 を超えていれば、BertModel の値よりも上昇しており、反対に 1を下回れば BertModel の値よりも減少していることになる。なお、Pseudo F は各単語ごとに計算する。
$
\text { 值の上昇率 }=\frac{\text { 提案モデルの値 }}{\text { BertModel の値 }}
$
全単語における Pseudo F の値の上昇率をバイオリンプロットした結果を図3に示す。Pseudo F の値の上昇率が 1 周辺になっている単語が多いことがわかる。また、各単語における Pseudo F、クラスタ内分
散、クラスタ間分散の値についての平均値と中央値を表 2に示す。
表 2 平均値と中央値
Pseudo F の値において、平均、中央値 1 を超えており、BertModel よりも值が向上していることがわ
図 3 Pseudo F
かる。中央値が 1 を超えているという点から、対象単語の半分以上 (52\%) の単語にて値が向上している。
## 5 終わりに
本研究では BertModel における embedding 層への入力に、従来のトークン ID の配列などに加え、トー クン ID の基となった段落の前後の段落の分散表現を追加情報にすることで、語義曖昧性解消を目的とした分散表現の生成を目指した。BertModel と提案モデルの両方で作成した分散表現について Pseudo F の値を計算し、比較したところ半分以上の名詞において Pseudo F の值が向上した。クラスタ間分散およびクラスタ内分散については両方減少したが、分子であるクラスタ間分散の方が減少率が少なかったため、Pseudo F の値が上昇したと考えられる。
また、本研究ではファインチューニングなどを行わない状態で、各単語の語義のクラスタに着目して実験し、評価を行った。今後はファインチューニングを行ったうえで、実際に語義を推定するような実験を行い、正答率の向上を確認する必要があると考える。
## 参考文献
[1] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Perric Cistac, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-Art Natural Language Processing. pp. 38-45. Association for Computational Linguistics, October 2020.
[2] 菅原拓夢, 笹野遼平, 高村大也, 奥村学. 単語の分散表現を用いた語義曖昧性解消. 言語処理学会第 21 回年次大会発表論文集, pp. 648-651, 2015.
[3] 曹鋭, 田中裕隆, 白静, 馬ブン, 新納浩幸. Bert を利用した教師あり学習による語義曖昧性解消. 言語資源活用ワークショップ発表論文集= Proceedings of Language Resources Workshop, 第 4 巻, pp. 273-279. 国立国語研究所, 2019.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
[5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[6] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks, 2019.
[7] Manabu Okumura, Kiyoaki Shirai, Kanako Komiya, and Hikaru Yokono. On semeval-2010 japanese wsd task. 自然言語処理, Vol. 18, No. 3, pp. 293-307, 2011.
[8]東北大学自然言語処理研究グループ. Bert-base japanese whole-word masking. https://huggingface.co/cltohoku/bert-base-japanese-whole-word-masking, 2022.
[9] Tadeusz Caliński and Jerzy Harabasz. A dendrite method for cluster analysis. Communications in Statistics-theory and Methods, Vol. 3, No. 1, pp. 1-27, 1974. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-2.pdf | # 自己注意機構のアテンション重みが特定の種類のトークンに 集中する現象と外れ値次元の関係
丸田 佳 松崎 拓也
東京理科大学 理学研究科 応用数学専攻
1422541@ed.tus.ac.jp matuzaki@rs.tus.ac.jp
## 概要
BERT の自己注意機構は一部の層で [CLS]・[SEP] といった特殊トークンや,カンマ・ピリオドに大きなアテンション重みを割り振るという現象が知られている。一方,BERT の各層での出力べクトルには他の次元と値の絶対値が大きく離れている次元(外れ値次元)が存在することが知られている.
本研究では,外れ值次元と特定の種類のトークンへのアテンションの集中という現象の関係を定量的に分析する。結果として,一部の層では少数の外れ値次元がアテンションの集中を決める支配的な要因になっており,その影響で特定の種類のトークンに割り振られるアテンション重みが大きくなることを数値的に示す.
## 1 はじめに
自己注意機構をその中核とする Transformer [1] アーキテクチャは,BERT [2]をはじめとするさまざまな言語モデルで用いられている. 自己注意機構は,入力文の各トークンに対し,他のトークンとの関連度(アテンション重み)を計算し,関連が強いトークンを重視するように重みづけを行うことで出カベクトルを計算している.従って,アテンション重みが平均的に大きいトークンは,他のトークンから大きな注目を集めていることになるため,アテンション重みを観察することで,モデル内部の挙動をある程度理解できる場合がある $[3,4,5]$. しかし, アテンション重みが平均的に大きいトークンは必ずしも文において重要なトークンというわけではない.実際に Clark ら [6] は,BERT におけるアテンション重みは,前半層では [CLS], 中間層では [SEP], 後半層ではカンマ・ピリオドといった内容語としての意味を持たないトークンに大きく割り振られることを示した. Kobayashi ら [7]による, 特殊トークンや句読点に対応するべクトルはノルムが小さい傾向にあるため,出力ベクトルを作る際のこれらのトークンからの最終的な寄与は小さいことがわかるという観察もあるが,モデル内部の挙動を知る手がかりとしてアテンションを利用するためには,意味を持たないトークンにアテンションが集まる原因についてさらに理解することが必要である.
一方,BERT の各層が出力するべクトルには他の次元と比較して值の絶対値が非常に大きい次元(以降,「外れ値次元」と呼ぶ)が存在することが知られており,外れ値次元は,事前学習コーパスにおけるトークン頻度との相関があること [8] や,下流タスクの知識をエンコードしていること [9], 位置埋め込みや層正規化からの影響 $[10,11]$ などが明らかになっている. 特に,Puccetti ら [8] は,特定の層,特定の外れ值次元に着目した時に,アテンション重みの大きさと外れ値次元の値が相関している場合があることを示し,特定の種類のトークンへのアテンションの集中と外れ值次元の値との間に関係があることを示唆している.
本研究では,外れ値次元において,特定の種類のトークンは他のトークンとの絶対値の差が大きいことを示す(\$3).さらに,BERT の出力ベクトルの各次元とアテンションの関係を定量的に分析することで,少数の外れ值次元がアテンションを決める上で支配的な影響を及ぼす場合があることを示す(§4). これら 2 つの事実から,BERT が特殊トークンやカンマ・ピリオドへアテンション重みを大きく割り振る現象は,特定の少数次元の強い影響が原因であることがわかる.
## 2 準備
既存研究で報告されている以下の 2 つの性質を,言語モデルとして BERT-base-uncased ${ }^{1)}$, 入力データ
- 180次元目 -308 次元目 -381 次元目 - その他
図 1: STS-B dev データに対する BERT の全出力ベクトルの次元ごとの平均値
として STS-B dev データセット2)の sentence 1 全文を用いて確認する:
- BERT の出力ベクトルには他の次元よりも絶対值の大きい外れ值次元が存在する $[8,9,10,11]$
・BERT のアテンション重みは前半・中間・後半層のそれぞれで特定の種類のトークンに大きく割り振られる [6]
## 2.1 BERT の外れ値次元
全トークンの出力ベクトルを平均し,次元ごとに折れ線グラフにしたものを図 1 に示す. 図 1 より, 308 次元目は全ての層において絶対値が大きいこと, 381 次元目は中間層で他の次元に比べ絶対値が大きくなること,180 次元目は最終層付近で絶対值が大きくなることがわかる.以下,本論文ではこの 3 つの外れ值次元に注目する。
## 2.2 トークンの種類とアテンション重み
全トークンに対するアテンション重みの平均を [CLS], [SEP], カンマ・ピリオド,その他のトークンの 4 つに分けて層ごとに求めたものを図 2 に示す.図より, 前半層 (Layer 2, 3) では [CLS] のアテンションが大きく,中間層 (Layer 5~10) では [SEP]へのアテンションが大きいことがわかる. また, Layer 11,12においてカンマ・ピリオドへのアテンションが急激に大きくなっていることがわかる.
STSbenchmark
- CLS - SEP - . or, - Other
図 2: STS-B dev データに対する BERT のアテンション重みの層平均
## 3 外れ值次元の値とトークンの種類
図 1 で確認した外れ值次元において,特定の種類のトークンは他のトークンとの絶対值の差が大きいことを示す. STS-B の dev データセットの sentence 1 の全文を事前学習済みの BERT-base (uncased) に入力し,各層ごとにトークンを [CLS], [SEP],カンマ・ ピリオド,その他の 4 種類に分けて,外れ值次元の値の平均値を計算しグラフにまとめたものを図 3a, 3b,3c に示す.
308 次元目図 $3 \mathrm{a}$ を見ると, Layer 0 から Layer 8 までは [CLS] の絶対値が最も大きく,Layer 0 を除いてカンマ・ピリオドも [CLS] とほぼ同程度の値であることがわかる。また Layer 1 と Layer 2 では [CLS], [SEP],カンマ・ピリオドの值は同程度であるが, Layer 3 から [SEP] の值が増加し, Layer 5 以降において [SEP] は非負値をとることがわかる.
381 次元目図 $3 b$ を見ると,Layer 0 から Layer 8 までは $[\mathrm{SEP}]$ の絶対値が大きく,特に中間層においてその傾向が強いことがわかる。
180 次元目図 $3 \mathrm{c}$ を見ると, Layer 9 以降から [SEP] とカンマ・ピリオドの絶対値の値が大きくなり始め,最終層では,[SEP] とカンマ・ピリオドは他の種類のトークンと比べて絶対値が非常に大きくなることがわかる。
## 4 外れ值次元のアテンションスコア への影響の分析
本節ではアテンションスコアに対する各次元からの寄与の計算方法を述べ,外れ値次元がアテンションスコアにおいて大きな影響を持つことを示す.
(a) 308 次元目
(b) 381 次元目
(c) 180 次元目
図 3: 外れ値次元の値の層ごとの平均値
## 4.1 アテンション重みにおける特定次元か らの影響
入力文の $m$ 番目のトークンをクエリ,$n$ 番目のトークンをキーとした時,あるへッドにおけるトー クン $m$ から $n$ へのアテンション重み $\alpha_{m, n}$ は以下のように計算される.
$
\begin{gathered}
\alpha_{m, n}:=\operatorname{softmax}\left(\frac{\boldsymbol{q}\left(\boldsymbol{x}^{m}\right) \boldsymbol{k}\left(\boldsymbol{x}^{n}\right)^{\top}}{\sqrt{d^{\prime}}}\right) \\
\boldsymbol{q}(\boldsymbol{x}):=\boldsymbol{x} \boldsymbol{W}^{Q}+\boldsymbol{b}^{Q}, \quad \boldsymbol{k}(\boldsymbol{x}):=\boldsymbol{x} \boldsymbol{W}^{K}+\boldsymbol{b}^{K}
\end{gathered}
$
ここで $\boldsymbol{x}^{m}, \boldsymbol{x}^{n} \in \mathbb{R}^{d}$ はクエリとキーに対応するべクトル $, W^{Q}, W^{K} \in \mathbb{R}^{d \times d^{\prime}}$ はこのへッドにおけるクエリとキーの重み行列, $\boldsymbol{b}^{Q}, \boldsymbol{b}^{K} \in \mathbb{R}^{d^{\prime}}$ はこのへッドにおけるクエリとキーのバイアスである.
次に,式(1)の $\alpha_{m, n}$ における softmax 関数の引数の分子を $S=\boldsymbol{q}\left(\boldsymbol{x}^{m}\right) \boldsymbol{k}\left(\boldsymbol{x}^{n}\right)^{\top}$ とおき, $\boldsymbol{W}=\boldsymbol{W}^{Q} \boldsymbol{W}^{K^{\top}}$ とすると $S$ は以下のように 4 つの項の和となる。
$
S=\boldsymbol{x}^{m} \boldsymbol{W} \boldsymbol{x}^{n^{\top}}+\boldsymbol{b}^{Q} \boldsymbol{W}^{K^{\top}} \boldsymbol{x}^{n^{\top}}+\boldsymbol{x}^{m} \boldsymbol{W}^{Q} \boldsymbol{b}^{K^{\top}}+\boldsymbol{b}^{Q} \boldsymbol{b}^{K^{\top}}
$
ここで,アテンション重みの大きさを決めるのは,同一クエリに対する異なるキー間でのスコアの差であることに留意し,式 (3) の第 1 項と第 2 項におけるキーベクトル $\boldsymbol{x}^{n^{\top}}$ の $j$ 次元目からの寄与 $C_{1 j}, C_{2 j}$ を考える:
$
C_{1 j}=\left(\sum_{i=1}^{d} x_{i}^{m} w_{i j}\right) x_{j}^{n}, \quad C_{2 j}=\left(\sum_{i=1}^{d^{\prime}} b_{i}^{Q} w_{i j}^{k}\right) x_{j}^{n}
$
このとき式 (3) の第 1 項,第 2 項は以下のように分解できる.
$
\begin{gathered}
\boldsymbol{x}^{m} \boldsymbol{W} \boldsymbol{x}^{n^{\top}}=\sum_{i, j=1}^{d} x_{i}^{m} w_{i j} x_{j}^{n}=\sum_{j=1}^{d} C_{1 j} \\
\boldsymbol{b}^{Q} \boldsymbol{W} \boldsymbol{x}^{n^{\top}}=\sum_{j=1}^{d} \sum_{i=1}^{d^{\prime}} b_{i}^{Q} w_{i j}^{k} x_{j}^{n}=\sum_{j=1}^{d} C_{2 j}
\end{gathered}
$
$C_{1 j}$ と $C_{2 j}$ の和を $C_{j}$ とし, 全ての次元についてまとめたべクトル $\boldsymbol{C}=\left[C_{j}\right]$ は以下のように計算できる.
$
\boldsymbol{C}=\left(\boldsymbol{x}^{m} \boldsymbol{W}+\boldsymbol{b}^{Q} \boldsymbol{W}^{K^{\top}}\right) \odot \boldsymbol{x}^{n}
$
$\boldsymbol{C}$ の各成分を比較することで,アテンションスコアにおける各次元からの寄与がわかる。
## 4.2 実験の概要
モデルとして BERT-base (uncased) を,入力デー タとして STS-B dev データセットの sentence 1 から 100 文ランダムにサンプリングしたものを用いた. BERT-base(uncased)は全 12 層にそれぞれ 12 個のヘッドが存在する. これらのうち,第 $2,6,12$ 層について,全ての次元の $C_{j}$ の入力データ全文に対する平均値を求め,各層ごとにプロットしたものを図 4 亿示す. また,外れ値次元の $C_{j}$ の値をキートークンの種類([CLS],[SEP],カンマ・ピリオド,その他の 4 種類)ごとに平均したものを表 1 に示す. なお,図 4 に示したもの以外の層についての $C_{j}$ のプロットは Appendix に掲載した。
## 4.3 結果
前半層図 $4 \mathrm{a}$ を見ると,全てのヘッドで 308 次元目の影響が正の方向に大きく働いていることがわかる。しかし, 表 1 を見ると,[CLS],[SEP],カンマ・ピリオドの間では $C_{308}$ の平均值に大きな差はないことが分かる.従って,外れ値次元の影響のみではなく,他の複数次元の影響が重なることで [CLS] にアテンションが集まっていると考えられる。
中間層図 $4 \mathrm{~b}$ を見ると,ほぼ全てのヘッドで 308 次元目の影響が負の方向に大きく働き,全てのへッドで 381 次元目の影響が正の方向に大きく働いていることがわかる.表 1 を見ると,キートークンが [SEP] である場合, 308 次元の負の影響が無く, 381
(a) Layer 2
(b) Layer 6
(c) Layer 12
図 4: 層ごとの全へッドにおける,アテンションスコアへの各次元からの寄与の分布
表 1 : キートークンの種類ごとの,外れ值次元における $C_{j}$ の平均値
次元目の正の影響が他の種類のトークンと比べて非常に大きいことがわかる. 従って外れ値次元の影響で [SEP] にアテンションが集まっていると言える。
後半層図 4cを見ると,全てのヘッドで 308 次元目の影響が負の方向に大きく働き,ほぼ全てのへッドで 180 次元目と 381 次元目の影響が正の方向に大きく働いていることがわかる. 表 1 を見ると, 381 次元目の値はどの種類のトークンもほぼ同程度だが,キートークンが [SEP] である場合, 308 次元目の負の影響が無いことがわかる。また,キートークンが [SEP] あるいはカンマ・ピリオドである場合, 180 次元目の正の影響が他の種類のトークンと比べ
て非常に大きいことがわかる.以上から Layer 12 では外れ值次元の影響で [SEP],カンマ・ピリオドにアテンションが集まっていると言える.
## 5 まとめ
BERT の中間層において [SEP],最終層において $[\mathrm{SEP}]$ およびカンマ・ピリオドに対しアテンションが集中するのは,外れ値次元の影響が非常に大きいことがわかった. 一方,前半層において [CLS] にアテンションが集中する現象は,外れ值次元の影響のみでは説明できなかった. これについては今後の課題としたい.
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, L ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. Von Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[3] Jesse Vig. A multiscale visualization of attention in the transformer model. In Marta R. Costa-jussà and Enrique Alfonseca, editors, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 37-42, Florence, Italy, July 2019. Association for Computational Linguistics.
[4] Benjamin Hoover, Hendrik Strobelt, and Sebastian Gehrmann. exBERT: A Visual Analysis Tool to Explore Learned Representations in Transformer Models. In Asli Celikyilmaz and Tsung-Hsien Wen, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 187-196, Online, July 2020. Association for Computational Linguistics.
[5] Olga Kovaleva, Alexey Romanov, Anna Rogers, and Anna Rumshisky. Revealing the dark secrets of BERT. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4365-4374, Hong Kong, China, November 2019. Association for Computational Linguistics.
[6] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D. Manning. What does BERT look at? an analysis of BERT's attention. In Tal Linzen, Grzegorz Chrupa la, Yonatan Belinkov, and Dieuwke Hupkes, editors, Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, Florence, Italy, August 2019. Association for Computational Linguistics.
[7] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attention is not only a weight: Analyzing transformers with vector norms. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7057-7075, Online, November 2020. Association for Computational
Linguistics.
[8] Giovanni Puccetti, Anna Rogers, Aleksandr Drozd, and Felice Dell'Orletta. Outlier dimensions that disrupt transformers are driven by frequency. In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 1286-1304, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics.
[9] William Rudman, Catherine Chen, and Carsten Eickhoff. Outlier dimensions encode task specific knowledge. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 1459614605, Singapore, December 2023. Association for Computational Linguistics.
[10] Ziyang Luo, Artur Kulmizev, and Xiaoxi Mao. Positional artefacts propagate through masked language model embeddings. In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5312-5327, Online, August 2021. Association for Computational Linguistics.
[11] Olga Kovaleva, Saurabh Kulshreshtha, Anna Rogers, and Anna Rumshisky. BERT busters: Outlier dimensions that disrupt transformers. In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3392-3405, Online, August 2021. Association for Computational Linguistics.
(a) Layer 1
(d) Layer 4
(g) Layer 7
(j) Layer 10
(b) Layer 2
(e) Layer 5
(h) Layer 8
(k) Layer 11
(c) Layer 3
(f) Layer 6
(i) Layer 9
(1) Layer 12
図 5: 全 12 層の層ごとの全ヘッドにおける,アテンションスコアへの各次元からの寄与の分布
## A 全 12 層におけるアテンションスコアへの次元ごとの寄与の分布
本文では扱えなかった層も含めた全 12 層の $C_{j}$ の分布図を掲載する. Layer 1 においてはまだ支配的な次元は存在していないと言える. Layer 2 と Layer 3 では 308 次元目の影響が正の方向に大きい. Layer 4 から 381 次元目の影響が正の方向に大きくなり始め, Layer 5 では 381 次元目は正の方向,308 次元目が負の方向にはたらく.その傾向が Layer 6 Layer 10 まで続いた後,Layer 11 から 180 次元目の影響が正の方向にはたらき始め, Layer 12 では 180 次元目・381 次元目が正の方向に,308 次元目が負の方向にはたらくことがわかる. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-3.pdf | # 低頻度語彙埋め込みの縮約による事前学習済みモデルの圧縮
田村 鴻希 1 吉永 直樹 2 根石 将人 1
1 東京大学大学院情報理工学系研究科 2 東京大学生産技術研究所
}^{1}$ tamura-k, neishi\}@tkl.iis.u-tokyo.ac.jp ${ }^{2}$ ynaga@iis.u-tokyo.ac.jp
## 概要
既存の事前学習済みモデルの軽量化手法は中間層の圧縮を行うもので,さらなる圧縮には埋め込み層の圧縮が必要となる. 本研究では, 低頻度語彙の埋め込みを高頻度語彙を用いて縮約表現することで微調整後の事前学習済みモデルの埋め込み層を圧縮する手法を提案する.JNLI,JSTS,JCoLAの JGLUE の各タスクで微調整した事前学習済みモデル DistillBERT に提案手法を適用した結果,それぞれ 3 割程度のパラメタの削減を達成した。
## 1 はじめに
自然言語処理で標準的に用いられる事前学習済みモデルは,モデルサイズ(パラメタ数)およびその学習(データサイズ)を大規模化することで単調に性能が改善する [1] ことから,近年,肥大化の一途を辿っている。これらのモデルをスマートフォンのような計算資源の限られる環境でも扱うためには,計算量,メモリ使用量の両面でモデルを軽量化することが重要になる.
これに対して,量子化,枝刈り,知識蒸留など,様々なモデル圧縮手法 [2] が研究されているが,これらの多くはモデルの中間層を軽量化するものであり,圧縮されたモデルをさらに小さくするためには入出力層(語彙埋め込み)の軽量化が重要となる.事前学習済みモデルの語彙 $[3,4,5]$ は, 事前学習時の学習データに対して最適化されているため, 単語分布の異なる下流タスクのドメインには出現しない語彙や低頻度となる語彙が含まれる。これらの低頻度語彙の下流タスクの推論への影響は少ないと予想され,単純に削除することも可能ではあるが,一定以上語彙を圧縮しようとすると,単純な削除では性能低下を避けることが難しい。
本研究では,下流タスクの学習データで微調整済みの事前学習済みモデルを対象に,推論への影響が少ないと期待できる,下流タスクの学習データで低
図 1 事前学習済みモデルの低頻度語彙を対象とした縮約表現 $(\mathrm{k}=2)$ ). モデルは縮約表現された語彙自体は保存せず,埋め込みを再構成するための重みと対応する語彙の IDを保存する。
頻度となる語彙の埋め込みを高頻度語彙の埋め込で縮約表現することで,推論への影響を抑えて語彙埋め込みを圧縮する。具体的にはまず,下流タスクの学習データを圧縮対象の事前学習済みモデルのトークナイザでトークン化し,各語彙の頻度を数える. 次に,圧縮の目標とする語彙サイズを超える頻度順位を縮約対象とする低頻度語彙とし, 事前学習済みモデルの埋め込み空間内で $k$ 近傍となる高頻度語彙を検索し,その埋め込みの線形和により,低頻度語彙の埋め込みを縮約表現する(図 1).
実験では,DistilBERT[6] を対象に,日本語言語理解データセット JGLUE[7] に含まれる下流タスクのデータセット(JNLI, JSTS, JCoLA[8])を用いて提案手法の有効性を評価した. 具体的には,各下流タスクで微調整した DistilBERT に対し,下流タスクの学習データに出現する語彙サイズを超える頻度順位の語彙を縮約表現したときの性能低下を評価した。
## 2 関連研究
本節では,言語モデルを一から学習する際の語彙獲得手法,および学習済みモデルの語彙を目的ドメインに適応させる手法について説明する。
## 2.1 語彙獲得
Byte-Pair Encoding (BPE) [4] やユニグラム言語モデル [3] など既存のサブワード語彙の獲得手法では,予め定めた語彙サイズ1) となるように大規模な学習データからトークナイザを学習し,学習データを分割することで語彙集合を得る。これに対して,Xu ら [9] は決定的に定めた語彙サイズが必ずしも最適とはならないことを指摘し,最適輸送を用いることで,BPEで生成された語彙候補からモデルに最適な語彙サイズと,サイズに合った語彙を選択する手法を提案した. これらの手法はモデルの学習前に語彙集合を獲得するための手法であり,事前学習済みモデルの語彙を変更する用途には使えない. Hiraoka ら [10] は最適な語彙が個別のタスクに依存しうることを指摘し,下流タスクでの学習 (微調整) 時にタスクの損失を考慮して語彙を最適化する手法を提案しているが,これは語彙の圧縮を目的とするものではない.
一方で,サブワードより短い文字 $[11,12]$ やバイト $[13,14]$ を大力単位とするモデルも提案されており,バイトを入出力単位とする事前学習済みモデル [13] も存在する.このように極端に短いトークンに基づくモデルは入力のトークン長が長くなるため,推論速度の低下に繋がることから実用性を欠く。また,語彙が持つ情報量の低下を補うため,中間層を深くする必要があることが報告 [13] されており,中間層の軽量化が難しいと予想される。
## 2.2 語彙適応
また,本研究と関連する分野として,学習済みモデルを他の言語やドメインに適応するために,語彙に注目してその埋め込みを再構成する研究 $[15,16,17,18]$ が存在する. Sakuma ら [15] は, 多言語モデルにおいて,原言語の下流タスクのデータを用いて学習したモデルを目的言語で活用するため, 多言語埋め込み空間で近接する原言語の単語埋め込みとの位置関係に基づき,原言語のタスク特化単語埋め込み空間における目的言語の単語埋め込
みを計算する手法を提案している. Sato ら [16] は, Sakuma らの手法を機械翻訳のドメイン適応に応用し, 目的ドメインでの微調整前に学習済みモデルの語彙を目的ドメインの語彙に切り替える手法を提案している. Kajiura ら [17] は,事前学習済みモデルの語彙の一部を,下流タスクでの微調整前にそのタスクに頻出する語彙と入れ替える手法を提案している. Dobler ら [18] は多言語モデルを単言語用に追加学習する際に,下流タスクの学習データから語彙埋め込みを再構成する手法を提案している。これらの研究もやはり, 語彙の最適化に主眼があり, 学習済みモデルの語彙埋め込みの圧縮は行なっていない.
## 3 提案手法
本研究では,下流タスクで微調整した事前学習済みモデルを圧縮するため,語彙埋め込みを縮約表現する手法を提案する,具体的には,事前学習済みモデルの語彙 $V$ を縮約対象とする語彙 $V_{L}$ とその他の語彙 $V_{H}=V-V_{L}$ に分け,前者の埋め込みを後者の埋め込みの重み付き線形和で縮約表現することで代替とし, $V_{L}$ の埋め込みをモデルから破棄することでモデルのパラメタ数を削減する.
本研究では,埋め込みの近似にあたって $k$ 語の語彙の重み付き線形和を用いるため,モデルが直接埋め込みを保持する語彙は $V_{H}$ のみである。 $V_{L}$ については線形和を構成する語彙の ID と重みのぺア $k$対を保存する.そのため,モデルの語彙埋め込みに必要となるパラメタ数は, $V_{L}$ の埋め込みの次元数を $d$ として,$d>2 k$ のとき,$(d-2 k)\left|V_{L}\right|$ 削減される.
## 3.1 縮約対象とする語彙の選別
縮約表現は近似であるため,縮約による影響を小
選択する必要がある. 本研究では,下流タスクの学習データにおける出現頻度に基づき縮約対象とする語彙を決定する。 具体的には, $V$ の全ての語彙 $t_{i}$ について,トークン化された下流タスクの学習デー タでの出現頻度 $f_{i}$ を記録する。 その後,頻度降順で並べ替えたのち,モデルが定める特殊トークンの集合 $V_{s p}=\{\langle$ mask>, <sep>, <unk>, ... $\}$ を除いたものを $V^{\prime}$ から,頻度順位で上位 $r$ 語を,縮約に用いる語彙 $V_{H}=\left.\{t_{i}^{\prime} \in V^{\prime} \mid i<r\right.\}\left(\left|V_{H}\right|=r\right)$ とし, その他の低頻度語彙 $V_{L}=\left.\{t_{i}^{\prime} \in V^{\prime} \mid i \geq r\right.\}$ を縮約対象とする.
## 3.2 低頻度語彙埋め込みの縮約
埋め込みの縮約によるモデルの圧縮効果を最大限発揮するには,埋め込みの次元数 $d$ に対して,縮約に用いるパラメタ数 $2 k$ を十分小さく取ることが望ましい.また,縮約対象となる低頻度語の多くは,下流タスクの学習データで一度も観測されないゼ口頻度の語彙である. そこで,これらの語彙に対して,よりよい埋め込みを縮約表現で与えることを狙って, 本研究では Sakuma ら [15] が提案する局所線型写像 (LLM) を用いて低頻度語彙 $V_{L}$ の各埋め込みの構成を行う。
$V_{L}, V_{H}$ 中の各語彙の事前学習済みモデルでの埋め込み集合を $Y^{\mathrm{pre}} , X^{\mathrm{pre}}$ ,微調整済みモデルでの埋め込み集合を $Y^{\text {tuned }}, X^{\text {tuned }}$ と定義する. 微調整タスクの訓練データに直接分割として出現する語彙を $V_{\text {train }}$ として, $V^{\prime}$ 中の語彙の頻度順位が $r\left(t_{i}^{\prime}\right)>\left|V_{\text {train }}\right|$ を満たすゼロ頻度語彙では,定義した $Y^{\text {pre }}$ の各埋め込み $Y_{i}^{\mathrm{pre}}$ について, X $X^{\mathrm{pre}}$ のうちコサイン類似度での上位 $k$ 個の最近傍語彙の集合 $\mathcal{N}_{i}^{\text {pre }}$, および $X_{i}^{\text {pre }}$ から $Y_{i}^{\text {pre }}$ を近似するための重み $\alpha_{i}$ を求める. 近似構成によって得られる埋め込み集合 $\hat{Y}^{\text {tuned }}$ の各埋め込み $\hat{Y}_{i}^{\text {tuned }}$ は, 微調整済みモデルでの埋め込み集合 $X^{\text {tuned }}$ の $\boldsymbol{\alpha}_{i}$ による重み付け計算 $\sum_{j \in N_{i}^{\text {pre }}} \boldsymbol{\alpha}_{i j} X_{j}^{\text {tuned }}$ によって構成される. また, 頻度順位が $r\left(t_{i}^{\prime}\right) \leq\left|V_{\text {train }}\right|$ を満たす低頻度語彙では, $X^{\text {pre } て ゙ はなく ~} X^{\text {tuned }}$ から同様の手順で $Y_{i}^{\text {tuned }}$ 近似する.
重みの計算埋め込みの構成に用いる重み $\alpha_{i}$ の計算手法を述べる. LLMでは, $X_{i}^{\text {pre }}$ との重み付け平均で $Y_{i}^{\mathrm{pre}}$ を最もよく近似するときの
$
\hat{\alpha}_{i}=\underset{\alpha_{i}}{\arg \min }\left.\|Y_{i}^{\mathrm{pre}}-\sum_{j \in \mathcal{N}_{i}^{\mathrm{pre}}} \alpha_{i j} X_{j}^{\mathrm{pre}}\right.\|^{2}
$
を, $Y_{i}^{\mathrm{pre}}$ と $X_{i}^{\mathrm{pre}}$ を用いたラグランジュの未定乗数法によって
$
\hat{\alpha}_{i j}=\frac{\sum_{l}\left(C_{i}^{-1}\right)_{j l}}{\sum_{j} \sum_{l}\left(C_{i}^{-1}\right)_{j l}}
$
を
$
C_{i j l}=\left(Y_{i}^{\mathrm{pre}}-X_{j}^{\mathrm{pre}}\right) \cdot\left(Y_{i}^{\mathrm{pre}}-X_{l}^{\mathrm{pre}}\right)
$
の下で求めることで解く $\left(l \in \mathcal{N}_{i}^{\text {pre }}\right)$. その他の $r\left(t_{i}^{\prime}\right) \leq\left|V_{\text {train }}\right|$ の語彙では, $X^{\text {pre }}$ の代わりに $X^{\text {tuned }}$用いて近似の重みを得る。
推論への適応推論時には微調整済みモデルの $V_{L}$ の各語彙の埋め込みは, $k$ 近傍語彙の微調整済み
モデルでの埋め込み $X_{i}^{\text {tuned }}$ と求めた重み $\alpha_{i}$ との重み付け平均3)を用いて算出された $\hat{Y}_{i}^{\text {tuned }}$ として再構成される. また, 元の埋め込み空間 $Y^{\text {tuned }}$ は不要となるため,これの破棄によりパラメタを削減する。
## 4 実験
提案手法による微調整済みモデルの推論性能への影響を確かめるため,提案手法を適用したモデルと,語彙圧縮前のモデルとの性能差を比較する.語彙圧縮のベースラインとしては,縮約対象の語彙を<unk>に置換する手法を用いる。また,提案手法は低頻度語彙を対象とすることから,評価データの中には縮約対象の語彙が出現しない事例も多いため, 全評価データを用いた評価に加えて,縮約対象の語彙が出現する事例のみでも実験を行う.
## 4.1 実験設定
データセット提案手法によって縮約された語彙埋め込みがモデルの推論性能に与える影響を確かめるため, 日本語言語理解データセット JGLUE から, JNLI,JSTS,JCoLAの 3 タスクのデータセットを用いる。それぞれ,JNLIは 2 文の間の含意関係を, JSTS は 2 つの文の意味的な類似度を,JCoLA は文の容認性の可否を推定するタスクである。
事前学習済みモデル実験では,事前学習済みモデルには LINE ヤフー社により提供されている LINE-distilbert ${ }^{4}$ を用い,これを前述の 3 タスクで微調整したモデルを対象として提案手法,およびベースライン手法で語彙埋め込みの縮約を行い,元の語彙埋め込みを持つモデルと各タスクでの推論性能を比較する. モデルのパラメタ数は $68 \mathrm{M}$ であり,また語彙サイズは $|V|=32768$ で,語彙埋め込みのパラメタは $25 \mathrm{M}$ であり全体の $36.6 \%$ を占める. モデルのトークナイザは,モデルに入力された文章を unidic-lite 辞書を用いた MeCab で分割後, SentencePiece を用いてユニグラム言語モデルによるサブワード単位のトークンに分割する。なお,各タスクでのモデルの微調整では,学習率を 5e-5 として 4 エポックの訓練を行った.
ハイパーパラメタ低頻度語彙の基準順位 $r$ には,各タスクの訓練データに分割として直接出現する語彙の大きさ $\left|V_{\text {train }}\right|$ ,および $\frac{\left|V_{\text {train }}\right|}{2}$ の 2 通りを設定した. 前者では訓練データに分割として出現
3) $\hat{\alpha}_{i}$ は, $\sum_{j} \alpha_{i}=1$ を満たす
4) https://huggingface.co/line-corporation/ line-distilbert-base-japanese
表 1 LINE-distilbert での提案手法の実験結果 $\left(r=\left|V_{\text {train }}\right|\right)$.
表 2 提案手法適用時のモデルのパラメタ数.
しない語彙が,後者では学習文書に出現する語彙のうち下位 $50 \%$ が $V_{L}$ として扱われる. 本実験の設定では,JNLI,JSTS,JCoLAの $\left|V_{\text {train }}\right|$ は,それぞれ 4427, 4687, 3558 であった. また, $r=\left|V_{\text {train }}\right|$ とする設定では,トークンの構成に用いる埋め込みの数 $k$ は $\{1,2,3\}$ のそれぞれで実験を行った.
## 4.2 結果と考察
縮約表現の効果表 1 に $r=\left|V_{\text {train }}\right|$ の設定での推論精度を示す. 提案手法は JSTS での $k=1,2$ を除き, $V_{L}$ の全てのトークンを<unk>トークンに置き換え流手法を精度で上回った. このことから,提案手法によって構成される語彙埋め込みの有効性が確認できた. ただし,提案手法によって構成した語彙埋め込みを用いることで元のモデルを精度で上回ることはなく, 提案手法は元の埋め込みに学習された表現を完全に代替するものとはなっていない.
語彙削減の効果 $k=3$ で提案手法を適用した,各タスクのモデルのパラメタ数と元のモデルからの割合を表 2 に示す. 表より, 本実験の設定では, $r=\left|V_{\text {train }}\right|$ の条件下で,3つのタスクのそれぞれで 3 割程度のパラメタを削減する。
近傍に用いる語彙の数による影響 $\quad r=\frac{\left|V_{\text {rain }}\right|}{2}$ で, $r=\left|V_{\text {train }}\right|$ と同様に推論を行った結果を表 3 に示す.表より,全ての設定において推論性能は $r=\left|V_{\text {train }}\right|$ の<unk>トークンによる置き換えを下回っており,学習時に直接出現したトークンの埋め込みが各タスクに与える影響はその他のトークンの表現が及ぼす影響に比べて強いことを確認した。 また,近傍トー クンを利用する場合とくunk>トークンに置き換える表 $3 r=\frac{\left|V_{\text {train }}\right|}{2}$ での, 全データセットでの実験結果.
& & \\
$k=1$ & 85.03 & 80.42 & 73.11 \\
$k=2$ & 84.84 & 79.92 & 73.81 \\
$k=3$ & $\mathbf{8 5 . 0 7}$ & $\mathbf{8 0 . 4 3}$ & $\mathbf{7 3 . 9 5}$ \\
場合の性能差が $r=\left|V_{\text {train }}\right|$ に比べて大きいことから,提案手法は学習時に出現したトークンに対しても有効な近似埋め込みを構成しているといえる。
用いる埋め込みの数による影響実験では,用いる近傍埋め込みの数 $k$ を 1 から 3 まで変化させたが, $k$ が大きいほど近傍トークンは置き換えるトー クンをよく近似する. しかし, $r=\left|V_{\text {train }}\right|$ の JNLI では $k=3$ ではなく $k=2$ の方が性能が高いように, $k$ が大きいほどよい埋め込みを構成するとは限らない。この原因としては,モデルが中間層での計算の過程で近い語彙埋め込みの間の意味の違いを判別し,出力埋め込みでは離れた表現とすることが考えられる。
## 5 まとめ
本研究では,微調整済み言語モデルの語彙圧縮を目的として,高頻度語彙の埋め込みを用いて低頻度語彙埋め込みを縮約表現する手法を提案した.提案手法では,低頻度語彙の埋め込みを,事前学習済みモデルの語彙空間における近傍の高頻度語彙の埋め込みの重み付け線形和によって近似する。実験では,本手法で埋め込みを置き換えたモデルを用いて JGLUE データセット上で推論を行い,事前学習済みモデル DistilBERT に対して 3 割程度のパラメタの削減,および<unk>トークンと比較して性能の高い埋め込みを近似した。
今後の課題として,下流タスクでの微調整時に同時に語彙を縮約する手法を検討する。
## 謝辞
本研究は東京大学生産技術研究所特別研究経費および JSPS 科研費 JP21H03494 の助成を受けています.
## 参考文献
[1] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling laws for neural language models, 2020.
[2] Yu Cheng, Duo Wang, Pan Zhou, and Tao Zhang. Model compression and acceleration for deep neural networks: The principles, progress, and challenges. IEEE Signal Processing Magazine, Vol. 35, No. 1, pp. 126-136, 2018.
[3] Taku Kudo. Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics.
[5] Mike Schuster and Kaisuke Nakajima. Japanese and Korean voice search. In 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5149-5152, March 2012.
[6] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. DistilBERT, a distilled version of BERT: Smaller, faster, cheaper and lighter, February 2020.
[7] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[8] Taiga Someya, Yushi Sugimoto, and Yohei Oseki. Jcola: Japanese corpus of linguistic acceptability. 2023.
[9] Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, and Lei Li. Vocabulary Learning via Optimal Transport for Neural Machine Translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 7361-7373, Online, August 2021. Association for Computational Linguistics.
[10] Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Optimizing Word Segmentation for Downstream Task. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1341-1351, Online, January 2020. Association for Computational Linguistics.
[11] Jonathan H. Clark, Dan Garrette, Iulia Turc, and John Wieting. CANINE : Pre-training an Efficient TokenizationFree Encoder for Language Representation. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 73-91, January 2022.
[12] Yi Tay, Vinh Q. Tran, Sebastian Ruder, Jai Gupta, Hyung Won Chung, Dara Bahri, Zhen Qin, Simon Baumgartner, Cong Yu, and Donald Metzler. Charformer: Fast Character Transformers via Gradient-based Subword Tokenization, February 2022.
[13] Linting Xue, Aditya Barua, Noah Constant, Rami Al-Rfou, Sharan Narang, Mihir Kale, Adam Roberts, and Colin Raffel. ByT5: Towards a Token-Free Future with Pre-trained Byte-to-Byte Models. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 291-306, 2022.
[14] Changhan Wang, Kyunghyun Cho, and Jiatao Gu. Neural Machine Translation with Byte-Level Subwords. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 9154-9160, April 2020.
[15] Jin Sakuma and Naoki Yoshinaga. Multilingual Model Using Cross-Task Embedding Projection. In Mohit Bansal and Aline Villavicencio, editors, Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 22-32, Hong Kong, China, January 2019. Association for Computational Linguistics.
[16] Shoetsu Sato, Jin Sakuma, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Vocabulary adaptation for domain adaptation in neural machine translation. In Trevor Cohn, Yulan He, and Yang Liu, editors, Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4269-4279, Online, November 2020. Association for Computational Linguistics.
[17] Teruno Kajiura, Shiho Takano, Tatsuya Hiraoka, and Kimio Kuramitsu. Vocabulary replacement in sentencepiece for domain adaptation. In Proceedings of the 37th Pacific Asia Conference on Language, Information and Computation, 2023.
[18] Konstantin Dobler and Gerard de Melo. FOCUS: Effective Embedding Initialization for Monolingual Specialization of Multilingual Models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 13440-13454, Singapore, February 2023. Association for Computational Linguistics.
[19] Nobukazu Fukuda, Naoki Yoshinaga, and Masaru Kitsuregawa. Robust Backed-off Estimation of Out-of-Vocabulary Embeddings. In Trevor Cohn, Yulan He, and Yang Liu, editors, Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4827-4838, Online, November 2020. Association for Computational Linguistics. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-4.pdf | # 平均プーリングによる文埋め込みの再検討 :平均は点群の要約として十分か?
原知正 ${ }^{1}$ 栗田宙人 1 横井祥 ${ }^{1,2}$ 乾 健太郎 ${ }^{3,1,2}$
1 東北大学 2 理化学研究所 ${ }^{3}$ MBZUAI
\{hara.tomomasa.s8, hiroto.kurita.q4\}@dc.tohoku.ac.jp
yokoi@tohoku.ac.jp kentaro.inui@mbzuai.ac.ae
## 概要
文や文書のベクトル化は,検索拡張生成(RAG) をはじめとした広範な自然言語処理アプリケーションを実装するための基盤技術である。本稿では,文埋め込みの標準的な構成方法である平均プーリングが,構成要素となる単語埋め込み集合の持つ空間的な広がりの情報を潰し得る,という問題を指摘する.また実験により,上記の問題が実際のテキストと深層学習モデルで確かに生じていることと,一方でその割合は小さいことを示す. 実験結果は平均プーリングの経験的な有用性を支持するものだが,同時に,文表現の構成方法を再検討する必要性を示唆するものである.
## 1 はじめに
文・段落・文書といった単語より大きな単位のテキストをべクトル化することで,情報検索や文書分類をはじめとする広範な自然言語処理タスクが,深層学習のフレームワークで統一的に解けるようになる $[1,2]$. とりわけ最近では, 大規模言語モデルに外部知識を効率的に取り込むための手法である検索拡張生成(RAG)においても,文埋め込みが主要な役割を担っている $[3,4]$.
自然言語の表現学習における基本単位は単語 (トークン) であり, 文埋め込みも一般に単語の埋め込み表現から作られる. 中でも最も標準的で人気のある方法は, 文中の各単語埋め込みを平均することにより文埋め込みを構成する平均プーリングである. 静的単語埋め込みに基づく手法群 [5] から動的単語埋め込みに基づく手法群 $[6,7]$ まで, これまで経験的な有用性が広く示されてきた。
人気の高い平均プーリングであるが,よく考えるといささか乱暴な計算方法に見える. 問題の起きる
図 1 平均プーリングが点群の空間的な広がりを潰す例.青色の点群と橙色の点群はそれぞれ別の文の単語埋め込み集合である.これらの点群の配置は明らかに異なっているが,平均プーリングで点群を 1 点に集約することで文埋め込み同士はほとんど同じになってしまう.
例として,図 1 に,二つの単語埋め込みの集合と, これらを平均プーリングでそれぞれ 1 点に集約した様子を示す. 図の青色の点群と橙色の点群 (単語埋め込み集合)の配置は明らかに異なり,つまり文を構成する単語集合の表す意味は異なる状態を図示している。一方で平均プーリング(×印)で作られた文埋め込み同士はほとんど同じものになり,つまり意味の異なる二つの文にほとんど同じ表現が与えられてしまう.まとめると,もともと点群として表現されている文を 1 点に要約することで, 点群の空間的な広がりが持つ意味の異なりの情報を潰してしまう可能性がある,ということだ1).
本稿では,(Q1) 上記の仮説上の問題が実際のテキストとモデルで起きているのかどうか,(Q2)また起きているとしてそれはどの程度の割合なのかを,文間の意味類似度(STS)データセットを利用して経験的に検証する.実験の結果,(A1) 前述の問題が生じるような文ペアが確かに存在していること,つまり意味的に異なる文が平均プーリングで「同一視」 されてしまうという問題が,実際のテキストとモデ
1)単語埋め込みの集合を高次元空間の経験分布と見れば,平均プーリングでの要約は,1 次のモーメントのみを参照することを意味する. 分散共分散以後 (2 次のモーメント以後) の情報を無視することに注目すれば,統計的な意味でもその乱暴さは明らかであろう。
ルでも起きていること,(A2)一方でその割合は小さいこと,がわかった. 問題が生じる確率が低いことは, 平均プーリングが経験的に有用であるという従来の知見を支持するものである。一方で,前述した問題は実際のテキストとモデルでも生じる明確なエラーであり,今後適切な措置を講じていく必要もあると考えられる. 本稿が, 文という自然言語の基本単位の表現を深層学習時代にどう構成すべきかという問題を再検討する契機となれば嬉しい。
## 2 平均プーリング
本節では文埋め込みを構成するための標準的な手法である平均プーリングを説明し,続いて平均プー リングにより生じ得る問題点について述べる.
## 2.1 平均プーリングを用いた文埋め込み
文埋め込みを構成するための最も標準的な手法は,文中の各単語の埋め込み表現を何らかのプー リング処理を介して 1 点に集約するというものである2).プーリング手法には最大プーリングなどあるが,中でも平均プーリングが標準的であり,これまで理論的・経験的な有用性が示されてきた. $[9,10,5,11]$
平均プーリングは,文字通り文中の各単語埋め込みの平均 (重心)をもって文埋め込みとする計算方法である. 形式的には,文 $s=\left(w_{1}, \cdots, w_{i}, \cdots w_{n}\right)$ の各単語 $w_{i}$ に対応する単語埋め込みを $w_{i} \in \mathbb{R}^{d}$ とし,文 $s$ の埋め込み表現 $s$ を以下で計算する.
$
\boldsymbol{s}=\frac{1}{n} \sum_{i=1}^{n} \boldsymbol{w}_{i} \in \mathbb{R}^{d}
$
## 2.2 平均プーリングの問題
しかし,平均プーリングは,「はじめに」でも述べたように,全く異なる単語べクトル集合を似た文埋め込みに表現し得るという問題がある. 図 1 を改めて確認するが,このような例では青色の点群と橙色の点群 (単語埋め込み集合) の配置は異なる一方,平均プーリングで作られた文埋め込み同士はほとんど同じものになっている. 「実験」では,ここで述べた「点群として異なる」「埋め込みとして近い」をもう一歩形式的に扱い,定量的な検証を進める.
2)文埋め込み自体を何らかのネットワークを介して直接出力させるモデルも過去にはあったが [8], 現状もっとも人気があり標準的なアプローチは,単語の埋め込み表現が得られる基盤モデルからまず単語の埋め込み表現を取り出し, これを何らかの方法で要約するというものだ.異なる意味を持つ文が同じ点に埋め込まれてしまうと,実用上のさまざまなシーンで問題が生じる. たとえば文埋め込みを入力として何らかの予測問題を解く際には, 予測モデルの学習ないし構成が不可能になる可能性がある. 感情分析の問題を解く際に,“この映画は最高”と “こんな映画は二度と見たくない”が同じべクトル表現となる状況では,精度の高い分類器は構成できないだろう。文埋め込み同士を比較する際にも同様の問題が起きる。クエリべクトルと文書べクトルを比較しながら関連文書を検索する際に,全く異なる内容を扱った文書が同じ埋め込み表現を持っていては困る. あるいは文埋め込み同士の比較を通じて文同士の意味類似度を推定する際も,異なる意味を持つ文が埋め込み空間で同一の点に埋め込まれている状況は避けたい。
## 3 分析の方針
以後では,「点群としては明らかに異なるのに,平均プーリングをすると同じ位置に埋め込まれてしまう」(図 1)という理論上の問題が,実際のテキストと実際のモデルで生じるのかどうかを経験的に検証したい。このためには,(i)「点群同士がどの程度異なるか」と (ii)「これを要約した平均プーリング同士がどの程度異なるか」をそれぞれ定量的に評価する必要がある。本研究では, (i) として Word Mover's Distance (WMD) [12] と呼ばれる最適輸送に基づく点群距離を採用する。つまり,図 1 における「青色の点群と橙色の点群の配置の違い」を, 「青色の点群の位置に置かれた荷物を橙色の点群の位置に距離空間で移し替えるために必要なコスト」で定量化する. (ii)としては,平均プーリング後の文埋め込み同士の L2 距離を用いる. L2 距離は,単語埋め込み空間においてもっとも自然に考えられる距離構造であり,かつ,WMDが想定している距離構造とも一貫する。まとめると,「点群としては明らかに異なるのに,平均プーリングをすると同じ位置に埋め込まれてしまう」という現象を,「点群間の WMD は大きいが平均プーリング後の L2 距離は小さい」という条件で探していく.
## 4 実験
本節では,「単語埋め込み集合の配置が異なっているにもかかわらず平均プーリングで作られた文埋め込み同士がほとんど同じものになる」問題が実際のテキストやモデルで起きているのか,起きている
としてどの程度起こっているのか検証する. 本稿では静的単語埋め込みを用いて, 単語埋め込み集合としての距離より平均プーリングで作られた文埋め込みの距離が小さい文ぺアをSTS データセットの中から探し,上記の問題が生じているのか確認する.
## 4.1 実験設定
データセットデータセットには STS Benchmark [13] の訓練データを使用した。このデータセットには全部で 5509 件の文ペアが存在し,各文ペアに対して人手で評価された文間の意味類似度が 0.0 ~ 5.0 の範囲で付けられている.
モデル静的な単語埋め込みとして word2vecgoogle-news-300 3)を使用した.
実験手順まず,それぞれの文から文埋め込みを構成する. 文を単語に分割して ${ }^{4)}$ ,各単語に対応する単語埋め込みを取得し,平均プーリングで文埋め込みを構成する。次に,文埋め込みの違いと単語埋め込み集合の違いを比較する. 各文ぺアに対して文埋め込みの L2 距離と WMD を求め,データセット中の L2 距離と WMD それぞれで相対順位に基づき文ぺアの意味類似度を $0.0 \sim 1.0$ の範囲で算出した $^{5)}$. そして, 「文埋め込みの L2 距離に基づいた意味類似度」>「WMDに基づいた意味類似度」となる文ペアに対して,単語埋め込み集合は異なっているが平均プーリングで作られた文埋め込み同士は近くなっているか確認する. 主成分分析で二次元に次元削減して各埋め込みを可視化し,散布図から前述した問題が起こっているのか人手で確認する。
## 4.2 実験結果
## 4.2.1 定量分析
図 2 の赤線から右側が,「点群としては明らかに異なるのに,平均プーリングをすると近い位置に埋め込まれてしまう」例の割合を表している。 $x$ 軸は 「平均プーリングで測った相対的な文類似度 - WMD で測った相対的な文類似度」を表しており,これが 0.3 を超えることは, 5 段階(しかない)STS スコアが 3 ずれること,つまり平均プーリングと WMD で類似度の推定値に大きな乘離があることを意味す
3) https://github.com/piskvorky/gensim-data
4) WMD の設定に習い [12],文を単語に分割する際にストップワードを除去した
5) 意味類似度の値が大きいほど,文の意味的に近いように定義する.
「平均プーリングの相対順位で算出した意味的類似度」
- 「WMDの相対順位で算出した意味的類似度」
図 2 「平均プーリングの L2 距離の相対順位から算出した類似度」-「WMDの相対順位から算出した類似度」 のヒストグラム. 赤線よりも右にある文ペアに対して実際に人手で「単語埋め込み集合の配置は異なるのに平均プーリングで構成された単語埋め込みが近くなる」問題が起きているか判断する.横軸が大きくなるほど上記の問題が起こりやすくなると考えられる.
る.このような文ぺアを機械的に抽出すると,デー タセットの中に 75 件存在し, これはデータセット全体の $1.3 \%$ に該当する。このうち,実際に「単語埋め込み集合は異なっているが平均プーリングで作られた文埋め込みが近くなっている」と人手で判断できた文ぺアは 71 件存在していた。
割合の小ささ(1.3\%)は,平均プーリングが経験的に有用であるという従来の知見を支持するものである。一方で前述した問題が実際のテキストとモデルで確かに生じていることも今回明らかになった.文表現の手法として平均プーリングは常に最良とは言えず,ケースに応じて適切な措置を講じる必要性を示唆している。
## 4.2.2 定性分析
「単語埋め込み集合の配置は異なっているが平均プーリングで作られた文埋め込みは近くなっている」と判断された 71 件の文ぺアの中で,元々の意味類似度が小さい一例を図 3 に示した.この例ではデータセットに存在している二つの文は “a woman holds a baby while a man looks at it as another man holding a child watches.", "a woman stands with her arms out in a store while another woman holds a camera.” となっている. この例では文埋め込みの L2 距離に基づいた意味類似度は 0.70 , WMD に基づいた意味類似度は 0.37 であり,その差は 0.30 となっており,文埋め込みに基づく意味類似度が高く
文1:
"a woman holds a baby while a man looks at it as another man holding a child watches."文2:
"a woman stands with her arms out in a store while another woman holds a camera."
図 3 データセットに存在する単語埋め込みの点群の配置が異なるが平均プーリングで作られた文埋め込みはほとんど同じになる例.青色の点は “a woman holds a baby while a man looks at it as another man holding a child watches.”,橙色の点は “a woman stands with her arms out in a store while another woman holds a camera.” のそれぞれの色を割り当てた単語,灰色の点は文 1 と文 2 で重複している単語である. 図の単語埋め込みの点群の配置は異なるものにもかかわらず,平均プーリングで作られた文埋め込み同士はほとんど同じものになっている.
なっていた,図を見てみると,単語埋め込み点群の配置は異なっているが平均プーリンで作られた文埋め込みは埋め込み空間で近くなっていることがわかる. またこの文ぺアは人手で評価された意味類似度の相対順位は 0.09 であり,平均プーリングで作られた文埋め込みが文間の意味類似度を不当に高く計算しており, 実用上の問題として本稿で指摘した問題点が起こっていることが確認できた.
## 5 関連研究
平均プーリングによる文表現平均プーリングは文埋め込みを作る手法として人気のある手法で,静的単語埋め込みに基づく手法群 [5] から動的単語埋め込みに基づく手法群 $[6,7]$ まで,理論的・経験的な有用性が広く示されてきた $[9,10,5,11]$. 本稿では取り扱わなかったが,今後の展開として本稿で指摘した問題が動的単語埋め込みでも生じるのか検証したい.
点群の広がりを保持する文表現単語埋め込み集合を 1 点に集約しない文表現も,これまで様々
に提案されてきた。最適輸送に基づく文類似度尺度 $[12,14]$ は,点群をそのまま用い,距離空間上で点群を「動かす」コストを計算することで文の意味類似度を計算している. 生成文の自動評価に幅広く用いられている BERTScore [15] もやはり単語埋め込み集合を集合のまま利用し,単語埋め込み間のコサイン類似度を集めた上で $\mathrm{F}$ 値に類する文間類似度を計算している。点群の持つ 2 次のモーメントまでを考慮する文表現として,文をガウス埋め込み [16] として表現する方法も提案されている [17]. 本稿では,平均プーリングによって点群としての情報が大きく損なわれるケースが,実用上も少数だが確かに存在することを確認した。このことは,本節で述べた「広がりの情報を維持する表現」を使うべき状況が少数ではあるが確かに存在することを意味する。今後,上述したようなリッチな文表現方法を,いつ,どのように,いかなる修正を加えて利用することが肝要なのかを理解することは,分野の重要な将来研究であろう.
## 6 結論
本稿では,単語埋め込みの点群集合は異なるが平均プーリングで作った文埋め込みがほとんど同じものになる問題を指摘した。また,実際のテキストとモデルでは上記の問題が確かに生じているが,その割合は小さいことを実験で示した。この結果は平均プーリングの経験的な有用性を支持するが,文表現の構成方法を再検討する必要性を示唆するものである.
今後の展開として動的単語埋め込みや平均プーリング以外のプーリング手法,さらに L2 距離ではなくコサイン類似度で点の違いを定量化した場合についても分析を行うなどがある。また本稿では実際に単語埋め込みの配置は異なっているのに平均が近くなることを最終的には人手で判断したが,この人手による判断を何らかの量で記述することでより分析を精緻で一般的なものにしたい。さらに本稿では指摘した問題が起こる確率が低いという結果を理論的に解析することも考えられる。
## 謝辞
本研究は JSPS 科研費 JP22H05106,JP22H03654 の助成を受けたものです. また, 本研究は JSPS 科研費 JP22H00524 の助成を受けたものです. さらに本研究は,JST,CREST,JPMJCR20D2 の支援を受けたものである. 本研究の遂行にあたり多大なご助言, ご協力を賜りました TohokuNLP グループの皆様に感謝申し上げます.
## 参考文献
[1] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics.
[2] Niklas Muennighoff, Nouamane Tazi, Loic Magne, and Nils Reimers. MTEB: Massive text embedding benchmark. In Andreas Vlachos and Isabelle Augenstein, editors, Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pp. 2014-2037, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics.
[3] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive nlp tasks. In Proceedings of the 34th International Conference on Neural Information Processing Systems, NIPS'20, Red Hook, NY, USA, 2020. Curran Associates Inc.
[4] Harrison Chase. LangChain, October 2022.
[5] John Wieting, Mohit Bansal, Kevin Gimpel, and Karen Livescu. Towards universal paraphrastic sentence embeddings. CoRR, Vol. abs/1511.08198, , 2015.
[6] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics.
[7] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[8] Zhouhan Lin, Minwei Feng, Cícero Nogueira dos Santos, Mo Yu, Bing Xiang, Bowen Zhou, and Yoshua Bengio. A structured self-attentive sentence embedding. In 5 th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017.
[9] Jeff Mitchell and Mirella Lapata. Composition in distributional models of semantics. Cogn. Sci., Vol. 34, No. 8 , pp. 1388-1429, 2010.
[10] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C.J. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K.Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013.
[11] Carl Allen and Timothy Hospedales. Analogies explained: Towards understanding word embeddings. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings of the 36th International Conference on Machine Learning, Vol. 97 of Proceedings of Machine Learning Research, pp. 223-231. PMLR, 09-15 Jun 2019.
[12] Matt Kusner, Yu Sun, Nicholas Kolkin, and Kilian Weinberger. From word embeddings to document distances. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 957-966, Lille, France, 07-09 Jul 2015. PMLR.
[13] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Steven Bethard, Marine Carpuat, Marianna Apidianaki, Saif M. Mohammad, Daniel Cer, and David Jurgens, editors, Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp. 1-14, Vancouver, Canada, August 2017. Association for Computational Linguistics.
[14] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word rotator's distance. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 29442960, Online, November 2020. Association for Computational Linguistics.
[15] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020.
[16] Luke Vilnis and Andrew McCallum. Word Representations via Gaussian Embedding. In 3th International Conference on Learning Representations (ICLR), 2015.
[17] Shohei Yoda, Hayato Tsukagoshi, Ryohei Sasano, and Koichi Takeda. Sentence representations via gaussian embedding, 2023. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-5.pdf | # 語義の箱埋め込み学習とその応用
小田康平白井清昭
北陸先端科学技術大学院大学 先端科学技術研究科
\{s2210042,kshirai\}@jaist.ac.jp
## 概要
語義曖昧性解消の先行研究では語義の埋め込みを単一のベクトルで表現していたのに対し, 本研究は語義の箱埋め込みを学習する手法を提案する. 箱埋め込みの学習により, 語義間の上位下位関係の推定や新語義の判定が可能となる. Prototypical Networks に基づくMetricsWSD を語義の箱埋め込みを学習するように拡張し,モデル学習に必要なエピソードを作成する 2 つの戦略を提案する。評価実験を行い,語義曖昧性解消, 新語義の判定, 新語義の上位語義の推定という 3 つのタスクについて,提案手法の有効性を確認した。
## 1 はじめに
語義曖昧性解消 (Word Sense Disambiguation; WSD) とは,文脈における単語の意味 (語義) を特定するタスクである [1]. 従来の WSD の研究のほとんどは,訓練データに出現する語義の中からテストデータにおける単語の語義を選択することを想定している。 しかし, 単語の語義は日々変化し, 新しい語義も新しく生まれている. そのため,単にあらかじめ定義された語義の中から該当する語義を選ぶのではなく,対象単語が訓練データに存在しない未知の語義 (あるいは新しい語義) であるのかを判定することが求められる.
従来の WSD に関する研究では分類モデルを学習する際に語義をべクトルで表現していたのに対し,本研究では語義の箱埋め込みを学習することを目的とする。語義の箱埋め込みとは,ベクトル空間における領域によって表された語義の抽象表現である。語義を箱埋め込みで表現することにより,箱埋め込みが表す領域の重なりによって語義間の上位下位関係を自然に表現できる.また,対象単語を含む用例が与えられたとき,その対象単語の語義が新語義なのかを判定したり, 新語義の上位語義を推定するこ
図 1 語義の箱埋め込みによる上位語義の推定
とができる. 図 1 の例では, $x$ の箱埋め込みが cat や dog といった他の語義と領域が重ならないためにこれらとは異なる語義であること, animal の領域に包含されていることから上位語義は animal であることが推定できる.このように,語義の箱埋め込みは,新語義の自動検出や WordNet[2] などの概念辞書の自動拡張に応用できる。
本研究では既存の WSD 手法である MetricWSD[3] を語義の箱埋め込みを学習するよう拡張する。 さらに,モデルの損失を計算するために用いる小さいデータセットを作成する 2 通りの方法を提案する.提案手法を WSD,新語義の判定,新語義の上位語義の推定の 3 つのタスクに適用する実験を行い,語義をべクトルで表現する従来手法と比較する。
## 2 関連研究
## 2.1 WSD
最近の WSD の研究には,語義の定義文を用いる手法 $[4,5,6]$ ,語義の定義文に加え上位下位関係といった意味関係を用いる手法 $[7,8]$ などがある. Bevilacqua らは,対象単語を含む用例から BART[9] によって語義の定義文を生成し,これと辞書の語義の定義文との類似度を測ることで語義の曖昧性を解消する手法を提案している [10]. また,この研究では新語義を判定することも目的としている.しかし,これらの手法では,訓練データにお
ける低頻度語義に対する WSD の性能が低いことが問題とされている [11]. Chen らは, Prototypical Networks[12] とよばれるメタ学習手法を用いて WSD を行う MetricWSDを提案し,低頻度語義に対する WSD の性能を向上させた [3].
## 2.2 タクソノミ拡張
上位下位関係からなる知識グラフはタクソノミと呼ばれる。タクソノミ拡張 (Taxonomy Expansion) とは,現在のタクソノミに含まれない単語と文脈が与えられたとき,その単語がタクソノミにおけるどの単語を親にもつかを予測するタスクである [13]. タクソノミ拡張の代表的な手法として,グラフニュー ラルネットワークに基づく手法 [14],対象ノードと根ノードとの最短パスを学習する手法 [15] などがある. Jiang らは箱埋め込みを用いてタクソノミ拡張を行う手法を提案している [16]. 本研究でも箱埋め込みを用いるが,単語ではなく語義の箱埋め込みを学習する点, MetricWSD を拡張して箱埋め込みを学習する点が異なる。
## 3 提案手法
## 3.1 MetricWSD
Prototypical Networks[12] は分類問題を解くモデルを学習するためのメタ学習手法である. 図 2 にその概要を示す. $f_{\theta}$ は訓練データをべクトル表現に変換するモデルである.各分類クラスの訓練データをサポートセットとクエリセットに分割し,サポートセットのベクトルの平均から各分類クラスのプロトタイプ表現を獲得する. プロトタイプ表現とクエリセットのベクトル表現との距離を損失とし,それが最小になるようにモデル $f_{\theta}$ のパラメタを更新する.
MetricWSD[3] は Prototypical Networks を WSD に適用した手法である。分類クラスは語義であり, プロトタイプ表現が語義のベクトルに該当する。訓練データは語義を含む文 (用例) の集合であり,用例をべクトル表現に変換するモデル $f_{\theta}$ として Bidirectional Encoder Representations from Transformers (BERT)[17] が用いられている.
## 3.2 語義の箱埋め込みの学習
本研究では, 先行研究 $[16,18]$ に倣い, 語義の箱埋め込みを $\mathbf{b}=(\mathbf{c}, \mathbf{o})$ と表現する. $\mathbf{c}$ は中心を表すべクトル,o は箱の辺の長さを表すべクトルであり,
図 2 提案手法の概要
両者の次元数は同一である.
箱埋め込みを学習するために, 図 2 の点線の枠内に示すように,MetricWSD における $f_{\theta}$ の役割を担う BERT の最終層の後に全結合層 (Fully Connected Layer; FCL)をつなげる. この層の入力は BERT の対象単語に対する埋め込み,出力は $\mathbf{b}$ である. b は半分に分割され,それぞれ $\mathbf{c}$ ととなる。
あるアイテム $x$ がアイテム $y$ を包含する確率は, アイテム $x$ の箱埋め込み $\mathbf{b}_{x}$ とアイテム $y$ の箱埋め込み $\mathbf{b}_{y}$ を用いて式 (1)のように計算される.
$
P\left(\mathbf{b}_{y} \mid \mathbf{b}_{x}\right)=\frac{\operatorname{Vol}\left(\mathbf{b}_{x} \cap \mathbf{b}_{y}\right)}{\operatorname{Vol}\left(\mathbf{b}_{x}\right)}
$
$\mathrm{Vol}$ は箱の体積を計算する関数である. $\operatorname{Vol}\left(\mathbf{b}_{x} \cap \mathbf{b}_{y}\right)$ は 2 つの箱が重なっている部分の体積を意味する。 ただし, Vol のハードな定義では $\mathbf{b}_{x}$ と $\mathbf{b}_{y}$ が重なっていない場合に値が 0 となり,勾配がなくなるため,ソフトな定義を用いる必要がある. 本研究では, 先行研究 $[16,18]$ と同じく, Gumbel Box[19] によって関数 Vol を定義する. Gumbel Box では,2つの箱が重なっている部分の体積を Gumbel 分布に基づき計算する.
モデルを学習する際には,クエリ表現と各プロトタイプ表現のペア $\left(\mathbf{b}_{x}, \mathbf{b}_{y}\right)$ ごとに損失を計算する.損失は, 先行研究 [18] と同じく, 式 (2) に示す binary cross-entropy とする.
$
L=-\delta \cdot \log P\left(\mathbf{b}_{y} \mid \mathbf{b}_{x}\right)-(1-\delta) \cdot \log \left(1-P\left(\mathbf{b}_{y} \mid \mathbf{b}_{x}\right)\right)
$
ここで, $\delta$ は正例の場合に 1 ,負例の場合に 0 の值を取る変数である。ここでの正例とは,図 3 に示すように,語義 $y$ が語義 $x$ と同じもしくは語義 $x$ の上位概念 (祖先) である場合,負例とはそれ以外の場合を指す。直観的には,ある語義の箱埋め込みは,自身もしくは上位概念の語義との箱埋め込みが重なるように,それ以外とは重ならないように学習される。
図 3 損失計算における正例と負例 (赤が正例,青が負例)
## 3.3 エピソードの作成
一般に損失を計算するために分割された少数のサンプルからなるデータセットはバッチ (Prototypical Networks のようなメタ学習ではエピソード) と呼ばれる. MetricWSDでは, 1 つの単語に対して 1 つのエピソードを用意し,対象単語を含む用例によってエピソードを作成する. 本研究では語義間の関係を学習するため,1つの語義に対して 1 つのエピソー ドを用意する.語義 $t$ に対するエピソードの作成手順を以下に示す。
1. $N_{C}$ 個の語義を選択する. 正例と負例を含む.
2. それぞれの語義について,その語義の用例をランダムに $N_{S}$ 個選択し,サポートセットとする.
3. サポートセットに含まれない対象語義 $t$ の用例の中からランダムに $N_{Q}$ 個の用例を選択し,クエリーセットとする.
上記の手続きのステップ 1 において, $N_{C}$ 個の語義を選択する 2 つの戦略を提案する。
戦略 $S_{r} t$ と $t$ の (直近の) 上位語義を正例として選び,残りの語義をランダムにサンプリングする. $t$ の祖先に該当する語義が選ばれたときは正例,それ以外は負例となる。
戦略 $S_{n} \quad t$ と $t$ の上位語義を正例, $t$ の下位語義ならびに $t$ と同じ上位語義をもつ語義 (兄弟関係にある語義) を負例として選ぶ. $S_{r}$ と同様に残りの語義はランダムにサンプリングする.
戦略 $S_{n}$ では,ある語義の箱埋め込みが,特に下位語義や兄弟関係にある語義の箱埋め込みと重ならないことを重視している。
## 4 語義の箱埋め込みの応用
## 4.1 WSD
ある用例に出現する対象単語 $w$ の語義を決定する. 訓練データから作成された対象単語 $w$ の $k$ 個の語義のプロトタイプ表現を $\mathscr{B}_{w}=\left.\{\mathbf{b}_{1}^{p}, \ldots, \mathbf{b}_{k}^{p}\right.\}$ とす
る. テストデータの用例の箱埋め込みを $\mathbf{b}^{q}$ とし,式 (3) で定義する類似度 $\operatorname{sim}\left(\mathbf{b}_{i}^{p}, \mathbf{b}^{q}\right)$ が最大となる語義を選択する。
$
\operatorname{sim}\left(\mathbf{b}_{i}^{p}, \mathbf{b}^{q}\right)=2 \times \frac{P\left(\mathbf{b}_{i}^{p} \mid \mathbf{b}^{q}\right) P\left(\mathbf{b}^{q} \mid \mathbf{b}_{i}^{p}\right)}{P\left(\mathbf{b}_{i}^{p} \mid \mathbf{b}^{q}\right)+P\left(\mathbf{b}^{q} \mid \mathbf{b}_{i}^{p}\right)}
$
## 4.2 新語義の判定
ある用例に出現する対象単語 $w$ の語義が新語義かどうかを判定する.全ての語義について, $\mathscr{B}_{w}$ と $\mathbf{b}^{q}$ との類似度 $\operatorname{sim}\left(\mathbf{b}_{i}^{p}, \mathbf{b}^{q}\right)$ が閾値 $\alpha$ より小さい場合は新語義,それ以外は新語義ではないと判定する。
閾値 $\alpha$ は対象単語毎に設定する。開発データを用意し,対象単語の開発データにおけるクエリ表現と, 訓練データから学習された対象単語の語義のプロトタイプ表現との類似度の平均を $\alpha$ とする。
## 4.3 新語義の上位語義の推定
対象単語 $w$ の新語義を含む用例をテストデータとし,その上位語義の候補をランキングする. 訓練データにおける全ての単語の全ての語義のプロトタイプ表現を $\mathscr{R}=\left.\{\mathbf{b}_{1}^{p}, \ldots, \mathbf{b}_{m}^{p}\right.\}$ とする. まず, $\mathscr{B} の$中から $P\left(\mathbf{b}_{i}^{p} \mid \mathbf{b}^{q}\right)$ が閾値 $\beta$ より大きい語義を選択し,上位語義の候補の集合を得る.次に,これらの候補を $\operatorname{Vol}\left(\mathbf{b}_{i}^{p}\right)$ と $\operatorname{Vol}\left(\mathbf{b}^{q}\right)$ の差が小さい順にソートする.
## 5 実験
## 5.1 データセット
実験には既存の WSD のデータセットを用いる. Reganato らの提案した枠組み [20] に従い, SemCor 3.0[21,22]を訓練データ,SemEval-2007[23]を開発データ, Senseval-2[24], Senseval-3[25], SemEval2013[26], SemEval-2015[27] をテストデータとする. それぞれのデータセットは正しい語義が付与された用例の集合である.
上記のデータセット群から, ゆ living_thing.n.01, $\mathscr{D}_{\text {artifact.01, }}$, Dentity.n.01 という 3 つのデータセットを作成する. living_thing.n.01,artifact.n.01, entity.n. 01 は WordNet 上における Synset(語義)であり,各データセットはこれらの Synset の下位の語義を持つ用例から構成される。 D entity.n. 01 は名詞全体,それ以外のデータセットは名詞のサブセットである。訓練デー タならびに 4 節で名述べた 3 つのタスクのテストデー タの詳細を付録 $\mathrm{A}$ に示す。
## 5.2 実験設定
単一のベクトルで語義を表現する手法をべースラインとし, 箱埋め込みを学習する提案手法と比較する。具体的には,事前学習済みの BERTによる埋め込みを用いる手法 (BERT-NN) と MetricWSD をべー スラインとする.
BERT-NN,MetricWSD,提案手法のいずれも,事前学習済み BERT として bert-base-uncased [28]を使用した.箱埋め込みを出力するための全結合層の次元数は 256 (cとoの次元数は 128), サポートサイズ $N_{S}$ は 5 , クエリサイズ $N_{Q}$ は 20, 各エピソードの語義の数 $N_{C}$ は 128 とした.
## 5.3 結果と考察
本項では,3つのタスクの実験結果について述べ, それを考察する。なお,学習された語義の箱埋め込みの例を付録 B に示す。
## 5.3.1 WSD の実験結果
各手法の WSD の正解率を表 1 に示す. ProtoBox $S_{r}$ と ProtoBox $S_{n}$ は,それぞれ $S_{r}, S_{n}$ をサンプリング戦略としたときの提案手法を表す.「ALL」はテストデータ全て,「 $\leq 10 」$ はテストデー タのうち訓練データにおける出現頻度が 10 回以下の語義のみを対象としたときの正解率である. 提案手法は,小規模なデータセットである $\mathscr{D}_{\text {living_thing.n. } 01}$ と $D_{\text {artifact.n. } 01}$ では,おおむねべースラインを上回った.しかし, 名詞全体のデータセット $\mathscr{D}_{\text {entity.n. } 01}$ では,提案手法の正解率はベースラインよりも低かった. $\mathscr{D}_{\text {entity.n. } 01}$ では語義の数が他の 2 つのデータセットと比べて非常に多いため, 語義の箱埋め込みを適切に学習できていない可能性がある.
## 5.3.2 新語義の判定の実験結果
各手法の新語義の判定の F1 スコアを表 2 に示す.表 1 に示した WSD の結果とは異なり, D entity.n. 01 では提案手法がベースラインを上回り,残りの 2 つの
データセットでは下回った. 2 つのサンプリング戦略を比較すると,全体的には $S_{r}$ の方が $S_{n}$ よりも高いF1 スコアが得られた。
表 2 新語義の判定の結果 (F1 スコア)
## 5.3.3新語義の上位語義推定の実験結果
新語義の上位語義推定の結果を表 3 に示す. 4.3 項で述べた閾値 $\beta$ は $0.5,0.7,0.9$ のいずれかと設定した.ACC はランクが最上位の上位語義の正解率, MRR は正解の上位語義のランクの逆数の平均, WP はランクが最上位の上位語義と正解の語義との Wu-Palmer 類似度 [29] である. ACC と WP は全てのデータセットで提案手法がベースラインを上回っ
周り, ACC やWPでもベースラインとの差が小さいのは,ランキングの対象とする上位語義の候補の選定方法の違いによるものと考えられる. 4.3 項で述べたように, 提案手法では $P\left(\mathbf{b}_{i}^{p} \mid \mathbf{b}^{q}\right)>\beta$ という条件を満たす語義を上位語義の候補とするが,ベースラインでは全ての語義を上位語義の候補としている. より多くの語義を評価対象とする D $D_{\text {entity.n. } 01}$ では,真の上位語義が $P\left(\mathbf{b}_{i}^{p} \mid \mathbf{b}^{q}\right)>\beta$ の条件を満たさずに候補から除外されていると考えられる。よって,上位語義の候補を絞り込む条件を洗練する必要がある。
表 3 新語義の上位語義推定の結果
## 6 おわりに
本研究では語義の箱埋め込みを学習する新しい手法を提案した. 今後の課題として, $D_{\text {entity.n. } 01}$ のような語義の数が多い場合でも語義の箱埋め込みを適切に学習できるようにエピソード作成戦略を改善すること,動詞・形容詞など名詞以外の品詞での有効性を検証すること,などが挙げられる。
## 参考文献
[1] Roberto Navigli. Word sense disambiguation: A survey. ACM Comput. Surv., Vol. 41, No. 2, 2009
[2] George A. Miller. Wordnet: A lexical database for english. Commun. ACM, Vol. 38, No. 11, pp. 39-41, 1995
[3] Howard Chen, Mengzhou Xia, and Danqi Chen. Non-parametric few-shot learning for word sense disambiguation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1774-1781, 2021.
[4] Luyao Huang, Chi Sun, Xipeng Qiu, and Xuanjing Huang. GlossBERT: BERT for word sense disambiguation with gloss knowledge. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3509-3514, 2019.
[5] Terra Blevins and Luke Zettlemoyer. Moving down the long tail of word sense disambiguation with gloss informed bi-encoders. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1006-1017, 2020.
[6] Edoardo Barba, Tommaso Pasini, and Roberto Navigli. ESC: Redesigning WSD with extractive sense comprehension. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4661-4672, 2021.
[7] Michele Bevilacqua and Roberto Navigli. Breaking through the $80 \%$ glass ceiling: Raising the state of the art in word sense disambiguation by incorporating knowledge graph information. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2854-2864, 2020.
[8] Sawan Kumar, Sharmistha Jat, Karan Saxena, and Partha Talukdar. Zero-shot word sense disambiguation using sense definition embeddings. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5670-5681, 2019.
[9] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020.
[10] Michele Bevilacqua, Marco Maru, and Roberto Navigli. Generationary or "how we went beyond word sense inventories and learned to gloss". In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7207-7221, 2020.
[11] Marco Maru, Simone Conia, Michele Bevilacqua, and Roberto Navigli. Nibbling at the hard core of Word Sense Disambiguation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 4724-4737, 2022.
[12] Jake Snell, Kevin Swersky, and Richard Zemel. Prototypical networks for few-shot learning. In Advances in Neural Information Processing Systems, Vol. 30, 2017.
[13] Georgeta Bordea, Els Lefever, and Paul Buitelaar. SemEval-2016 task 13: Taxonomy extraction evaluation (TExEval-2). In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval-2016), pp. 1081-1091, 2016.
[14] Jiaming Shen, Zhihong Shen, Chenyan Xiong, Chi Wang, Kuansan Wang, and Jiawei Han. TaxoExpan: Self-supervised taxonomy expansion with position-enhanced graph neural network. In Proceedings of The Web Conference 2020, pp. 486-497, 2020.
[15] Yue Yu, Yinghao Li, Jiaming Shen, Hao Feng, Jimeng Sun, and Chao Zhang. STEAM: Self-supervised taxonomy expansion with mini-paths. In Proceedings of the 26th ACM SIGKDD Interna- tional Conference on Knowledge Discovery \& Data Mining, pp. 1026-1035, 2020.
[16] Song Jiang, Qiyue Yao, Qifan Wang, and Yizhou Sun. A single vector is not enough: Taxonomy expansion via box embeddings. In Proceedings of the ACM Web Conference 2023, pp. 24672476, 2023.
[17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019.
[18] Yasumasa Onoe, Michael Boratko, Andrew McCallum, and Greg Durrett. Modeling fine-grained entity types with box embeddings. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 2051-2064, 2021.
[19] Shib Dasgupta, Michael Boratko, Dongxu Zhang, Luke Vilnis, Xiang Li, and Andrew McCallum. Improving local identifiability in probabilistic box embeddings. In Advances in Neural Information Processing Systems, Vol. 33, pp. 182-192, 2020.
[20] Alessandro Raganato, Jose Camacho-Collados, and Roberto Navigli. Word sense disambiguation: A unified evaluation framework and empirical comparison. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 99-110, 2017.
[21] George A. Miller, Martin Chodorow, Shari Landes, Claudia Leacock, and Robert G. Thomas. Using a semantic concordance for sense identification. In Human Language Technology: Proceedings of a Workshop held at Plainsboro, New Jersey, March 8-11, 1994, 1994
[22] SemCor 3.0, (2024 年 1 月閲覧). https://web.eecs.umich. edu/ mihalcea/downloads.html\#semcor.
[23] Sameer Pradhan, Edward Loper, Dmitriy Dligach, and Martha Palmer. SemEval-2007 task-17: English lexical sample, SRL and all words. In Proceedings of the Fourth International Workshop on Semantic Evaluations (SemEval-2007), pp. 87-92, 2007.
[24] Philip Edmonds and Scott Cotton. SENSEVAL-2: Overview. In Proceedings of SENSEVAL-2 Second International Workshop on Evaluating Word Sense Disambiguation Systems, pp. 1-5, 2001 .
[25] Benjamin Snyder and Martha Palmer. The English all-words task. In Proceedings of SENSEVAL-3, the Third International Workshop on the Evaluation of Systems for the Semantic Analysis of Text, pp. 41-43, 2004.
[26] Roberto Navigli, David Jurgens, and Daniele Vannella. SemEval2013 task 12: Multilingual word sense disambiguation. In Second Joint Conference on Lexical and Computational Semantics (*SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pp. 222231, 2013.
[27] Andrea Moro and Roberto Navigli. SemEval-2015 task 13: Multilingual all-words sense disambiguation and entity linking. In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval 2015), pp. 288-297, 2015.
[28] BERT base model (uncased), (2023 年 12 月閲覧). https: //huggingface.co/bert-base-uncased.
[29] Zhibiao Wu and Martha Palmer. Verb semantics and lexical selection. In 32nd Annual Meeting of the Association for Computational Linguistics, pp. 133-138, 1994.
図 4 赤:animal.n. 01 の箱,青:dog.n. 01 の箱. $P($ animal.n.01|dog.n.01 $)=0.98, P($ dog.n.01|animal.n.01 $)=2.04 e^{-9}$.
図 5 赤:tree.n. 01 の箱,青:dog.n. 01 の箱. $P($ tree.n.01|dog.n.01 $)=8.44 e^{-5} , P($ dog.n.01|tree.n.01 $)=3.84 e^{-7}$.
## A データセットの詳細
## A. 1 訓練データ
訓練データの統計を表 4 に示す.
## A. 2 テストデータ
WSD WSD タスクのテストデータは,多義語を含む用例で,かつその正解の語義が訓練データに出現する用例の集合である. その統計を表 5 に示す.
表 5 WSD タスクのテストデータの用例数
新語義の判定新語義判定タスクのテストデータは,対象単語が訓練データに出現する用例の集合である. 正解語義が訓練データに出現していなければ新語義の用例, そうでない場合は新語義ではない用例としてラベル付けする. その統計を表 6 に示す.
表 6 新語義判定タスクのテストデータの用例数
新語義の上位語義推定新語義の上位語義推定タスクのテストデータは, 訓練データに出現しない語義の用例の集合である. 表 6 の「新語義」の用例とは異なり, 対象単語自体が訓練データに出現しない語義の用例も含まれる. その統計を表 7 に示す.
表 7 新語義の上位語義推定タスクのテストデータの用例数
## B 語義の箱埋め込みの例
$\mathscr{D}_{\text {living_thing.n. } 01}$ を訓練データとし, 提案手法 ProtoBox $S_{r}$ で学習した箱埋め込みの例を示す. 図 4 は 2つの語義 animal.n. 01 と dog.n. 01 のプロトタイプ表現 (語義の箱埋め込み)を可視化したものである. 横軸は箱の次元であり, 縦軸は各次元の辺の長さである。紫は 2 つの語義の箱埋め込みが重なっている領域である。同図ならびに $P$ (animal.n.01|dog.n.01) が 0.98 と高いことから, animal.n. 01 の箱埋め込みが dog.n. 01 の箱埋め込みをおおむね包含していることがわかる.また, tree.n. 01 と dog.n. 01 のプロトタイプ表現を図 5 に示す. $P$ (tree.n.01|dog.n.01) も $P(\operatorname{dog} . n .01 \mid$ tree.n.01) も低い値であることから, tree.n. 01 の箱埋め込みと dog.n. 01 の箱埋め込みはほとんど重なっていないことがわかる。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A10-6.pdf | # 部分空間法に着想を得た Transformer のアテンションヘッドにおける特徵抽出
前田晃弘 ${ }^{1}$ 鳥居拓馬 ${ }^{2}$ 日高昇平 1,3 大関洋平 4
1 北陸先端科学技術大学院大学 2 東京電機大学 3 ロンドン大学シティ校 4 東京大学
\{akihiro.maeda, shhidaka\}@jaist.ac.jp
tak.torii@mail.dendai.ac.jp, oseki@g.ecc.u-tokyo.ac.jp
## 概要
Transformerをベースとした言語モデルは,幅広い自然言語処理タスクにおいて高い性能を示している. 本研究は,文における単語分散表現の合成メカニズムを解明するため,Transformer のアテンションヘッドに注目し,その内部計算を部分空間への射影と捉え,ノルムの変化率により各へッドで捕捉される言語的な特徴を同定する新たな手法を提案する。事前学習済み BERT を用いた実証実験では,各アテンションヘッドが異なる特徴を抽出している可能性が示唆される.
## 1 はじめに
Transformer [1]をべースとした大規模言語モデル (LLM) が人間並の意味理解や意味生成を実現するなど高い性能を示している.LLM は単語ベクトルを入力とした演算を内部で行い質問応答などのタスクを実行するが,モデルが複雑であることから,その内部計算の解釈は困難である. Transformer ベースの言語モデルに関して,その内部解明を試みる研究は BERTology [2] と呼称されるほど盛んであり,分類器を用いて符号化されている言語的情報を調べるなど多くの研究手法が提案されている [3]. 特に,アテンションと呼ばれる計算過程(自己注意機構)の分析から,Transformer が文の句構造など統語的関係を捕捉していると考えられる [4].
本研究では,Transformer ベースの言語モデルにおける単語分散表現の合成メカニズムを明らかにすることを目的として,アテンション内部における計算過程の解釈に取り組む. アテンションヘッドと呼ばれるサブユニットでは,入力ベクトルを低次元べクトルへ変換した上で,べクトル間の演算が行われる.この線型写像は特徴抽出を行う部分空間への射影と見做すことができる.部分空間法と呼ばれるパターン認識の手法 [5] においてノルムを最大化する部分空間を用いて特徴べクトルのクラス分類を行うことに着想を得て,射影によるノルムの変化率に着目した新たな指標を定義する。その上で,この指標を用いてへッドに対応する部分空間が抽出している言語的特徴を同定する手法を提案する.Transformer ベースの言語モデルの一つである BERT[6] の学習済みモデルを用いた実験において,各アテンションヘッドが異なる言語的特徵を抽出している可能性があることを示す.
## 2 分析のためのアプローチ
## 2.1 Transformer の概要
Transformer [1] は,自己注意機構を特徴とする深層学習モデルである. 各レイヤーは,アテンションとフィードフォワードと呼ばれる二つのサブレイヤーから構成される. 入力文の各単語に対応する単語埋め込みとトークンの位置を表す位置ベクトルの和を状態ベクトルとして,レイヤーでの演算処理が行われる。
アテンションは,文中のトークン間の関連性を,対応するべクトル間の内積により評価した上で,その関連単語のベクトルを元単語の状態ベクトルに重み付け加算する。そのウェイトは,動詞-目的語の依存関係など文の統語構造を反映していることが知られており [4,7],アテンションは文における意味合成機能を担っていると考えられる。
一方,フィードフォワードは,事前学習された内部パラメータに基づいて算出されたべクトルを加算し,状態ベクトルを更新する。内部パラメータには学習時に獲得された世界知識や言語知識が記憶されており [8], 主題の肥沃化 (subject enrichment) が行わ
れていると考えられる [9].
状態ベクトルが各レイヤーにおいて算出されたベクトルにより加算・更新されていくプロセスを residual stream と捉え [10], 加算されるべクトルを言語的に解釈する分析手法が提案されている [11].
## 2.2 アテンションにおける計算過程
入力文のトークン数1) $n$ ,各トークンに対応する状態べクトルを $x \in R^{d}$ とする. この時,各レイヤーに入力処理されるのは,状態べクトル(行ベクトル)を垂直にスタックした行列 $X \in R^{n \times d}$ となる. $l \in\{1, \ldots, L\}$ 番目のレイヤーに入力される状態べクトルを集めた行列を $X_{l}$ とする。
各レイヤーの $h \in\{1, \ldots, H\}$ 番目のアテンションヘッドでは, 状態ベクトルを query, key, value の 3 つの $d^{\prime}$ 次元べクトルへ線型写像する(式 1).
$
Q_{l}^{h}=X_{l} W_{q_{l}^{h}}, \quad K_{l}^{h}=X_{l} W_{k_{l}^{h}}, \quad V_{l}^{h}=X_{l} W_{v_{l}^{h}}
$
$Q_{l}^{h}, K_{l}^{h}, V_{l}^{h} \in \mathbb{R}^{n \times d^{\prime}}$ は文中のトークンに対応する 3 つのベクトルをスタックした行列であり,それらを得る線型写像を表現する行列 $W_{q_{l}^{h}}, W_{k_{l}^{h}}, W_{v_{l}^{h}} \in \mathbb{R}^{d \times d^{\prime}}$ はモデル訓練時に学習される. $d^{\prime}=\frac{d}{H}$ (ただし, $H$ はへッド数)である. 次に, query と key の内積を計算し,それぞれのトークンが文中の他の単語に対して向けるべきアテンションのウェイトを表す行列 $A_{l}^{h}$ が式 (2)により与えられる.
$
A_{l}^{h}=\operatorname{softmax}\left(\frac{Q_{l}^{h} K_{k}^{h T}}{\sqrt{d^{\prime}}}\right)
$
最後に, valueベクトルの重み付き総和を $V_{l}^{h} A_{l}^{h}$ により求め, これを行列 $W_{o_{l}^{h}} \in \mathbb{R}^{d^{\prime} \times d}$ により $d$ 次元へ戻すことでアテンションの出力 $Y_{l}^{h}$ を得る(式 3).
$
Y_{l}^{h}=V_{l}^{h} A_{l}^{h} W_{o_{l}^{h}}
$
複数の並行的なアテンションヘッドは, 文中間で一つのトークンが複数の統語的関係に関与する状況を捕捉しているとされる [12].
## 2.3 部分空間法からの着想
パターン認識における部分空間法は,特徵べクトルが高次元空間の中の非常に次元の小さい部分空間に偏在することに着目して,部分空間を利用してクラス分類を行う手法である [5].
BERT の base モデルの場合 ${ }^{2}$, query, key, value を求める行列計算は,768 次元のベクトル空間から
1)文頭やパディングを表すタグを含む.
2) ハイパーパラメータ $L=12, H=12, d=768$
64 次元への線型写像であり, 部分空間への射影と考えることができる. 図 1 は,3つのベクトル
図1 各ヘッドの部分空間への射影
$\vec{a}, \vec{b}, \vec{c} \in \mathbb{R}^{768}$ が行列 $P \in \mathbb{R}^{64 \times 768}$ により写像され,部分空間において 3 つのベクトル $P \vec{a}, P \vec{b}, P \vec{c} \in \mathbb{R}^{64}$ が得られる様を示す. ベクトル $\vec{a}, \vec{b}$ は,射影後の部分空間においても十分なノルムを持つので,共通の特徵を有していると見られる一方,そうでない $\vec{c} のノ$ ルムは減退する。部分空間法では,各クラスごとにそのクラスを表現する低次元の部分空間を用意し,未知サンプルを射影した際に最大ノルムを示す部分空間に対応するクラスへ分類する.
これを逆に考えると,行列 $W_{q_{l}^{h}}, W_{k_{l}^{h}}, W_{v_{l}^{h}}$ による線型写像は,それぞれ異なる特徴を抽出する部分空間のクラスに対応していると考えられる.従って, ノルムの伸縮を調べることにより,それぞれのへッドが抽出している特徵を同定できると考えられる.
## 3 提案手法
## 3.1 部分空間のノルム伸縮率の定義
ベクトル $x \in \mathbb{R}^{d}$ を行列 $P \in \mathbb{R}^{d^{\prime} \times d}$ により $d^{\prime}$ 次元ベクトル $P x$ へ射影するとき,射影前後でそのノルムを比較するための指標として,ノルムの伸縮率を式 (4) により定義する。
$
\psi:=\frac{\|P x\|}{\sqrt{d^{\prime}}} / \frac{\|x\|}{\sqrt{d}}
$
定義域と値域の次元数の違いを反映して,ノルムを次元数の二乗根で正規化している. 例えば, $(1,1,1)^{T} \mapsto(1,1)^{T}$ の場合, 正規化後のノルムは $\sqrt{3} / \sqrt{3}=1$ と $\sqrt{2} / \sqrt{2}=1$ となり,ノルム伸縮率 $\psi=1.0$ となる. 正規分布に従う値を持つ高次元べクトルの場合,次元数 $d$ が大きくなるとノルムは $\sqrt{d}$ に近づく(球面集中現象)ので,次元数の二乗根によりノルムは正規化される。 $\psi$ が大きいべクトルほど当該部分空間が抽出する特徴を有し, $\psi$ が小さいベクトルほど特徴を有しないと解される.
$\psi$ の二乗は正規化したレイリー商である.
$
\frac{\|P x\|^{2}}{\|x\|^{2}}=\frac{(P x)^{T} P x}{x^{T} x}=\frac{x^{T} M x}{x^{T} x}=: R(M, x)
$
但し, $M=P^{T} P$ はエルミート(対称)行列である. レイリー商 $R(M, x)$ は,その最大(小)值が行列 $M$ の最大 (小) 固有值に等しいという性質を持つ [13].廿はレイリー商の定数 $\left(\frac{d}{d^{\prime}}\right)$ 倍の二乗根であるので, ノルム伸縮率は行列 $M$ の最大固有值に対応する固有ベクトルに沿うような分散表現を持つ単語を抽出していると言える.
アテンションの各へッドでは, query, key, value それぞれの部分空間への射影が行われているため, $P=W_{q_{l}^{h}}, W_{k_{l}^{h}}, W_{v_{l}^{h}}$ として, それぞれごとにノルム伸縮率 $\psi_{q}, \psi_{k}, \psi_{v}$ を計算する. [14] は,アテンションの出力ベクトルに対して, query と key の内積から得られるウェイトだけではなく, valueのノルムの大きさもインパクトをもたらす因子であることを指摘している. すなわち,一見ウェイトが大きな単語間の組み合わせであっても, valueのノルムが小さいためアテンションの出力全体に影響を与えないケースがある.これを踏まえて, 本研究では query, key, value の 3 つの部分空間における統合的な特徴抽出を評価するため, 3 つのノルム伸縮率の積 $\psi_{q k v}:=\psi_{q} \cdot \psi_{k} \cdot \psi_{v}$ を用いる.なお, query のトークンと, key, value のトークンは一般に異なるので, $\psi_{q k v}$ の値に関わらず,組み合わせ次第で出力にインパクトを与える可能性がある.同一ベクトルに対するノルム伸縮率のみに着目した本指標は,ヘッドが抽出する特徴を近似的に同定するためのものであることに留意する。
## 3.2 単語埋め込みの類型化
前節に定義したノルム伸縮率はトークン単位で計算されるが,各へッドが傾向的にどのような言語的特徴を抽出しているかを調べるために,トークンをグループ分けした上で,ヘッドで高い伸縮率を示すグループを特定することを試みる. BERT の入力に用いられる隠れ状態べクトルには, WordPiece と呼ばれる, 機械翻訳のためにあらかじめ学習された静的な単語埋め込み [15] が用いられている. 従って, BERT が用いているトークン数 30,522 の語彙に対応した単語埋め込みに対して k-means 法 [16] によるクラスタリング(クラスタ数を 1000 と設定)を行う. クラスタリングの結果例を表 1 に示す.
クラスタリング結果に基づいて,それぞれのクラスタをさらに著者がマニュアルでタイプ分けを行表 1 単語埋め込みのクラスタ例(クラスタ数 1000)
なった (表 1 中の Type として 6 種類を表示). 結果例に示すように,クラスタは,類似するトークンのタイプや,Words タイプであれば品詞などの統語的範疇や意味的範疇の観点で類似度の高い単語を含んでいることが観察された. クラスタリング結果全体の概要を付録 A に示す.
ユークリッド距離の近いべクトルは写像における挙動も類似することから,クラスタのノルム伸縮率を見ることで,クラスタ共通の言語的特徴が部分空間でどのように抽出されているかを調べることが可能である.
モデルに入力する状態ベクトルは,単語埋め込みと位置ベクトルの和であるところ (2.1 節),両べクトル間の直交性を踏まえ(付録 B), 本研究では単語埋め込み部分に対してノルム伸縮率を計算する.
## 4 実験
## 4.1 データ
事前学習済み言語モデルとして, Hugging face が提供する BERT_base_uncased[17]を用いる. 同モデルのハイパーパラメータは, $L=12, H=12, d=$ $768, d^{\prime}=64$ である. 全 144 個 $(L \times H)$ のヘッドごとに3つの射影に対応する行列の学習済みパラメータを抽出して用い,バイアス項は用いない. また前節 3.2 の通り,単語埋め込み $(30,522$ トークン) も同モデルのものを用いた.
## 4.2 クラスタ別のノルム伸縮率
各へッドごとにトークンのノルム伸縮率 $\psi_{q k v}$ を計算し,クラスタに含まれるトークンの平均値をクラスタのノルム伸縮率とした. 図 2 に示す 12 個のグラフは各レイヤーに対応し,それぞれの折れ線は
12 のヘッドに対応する. いずれのヘッドにおいて
図 2 ヘッド別ノルム伸縮率(横軸クラスタ降順)
も,グラフは上位少数のクラスタにおいて大きな値を示したのち,他のクラスタ領域では平坦である. アテンションウェイトの算出に用いられる Softmax 関数の性質より,各ヘッドは少数の選別されたクラスタを抽出していることが示唆される。
## 4.3 結果と分析
表 2 に,ヘッドにおけるノルム伸縮率上位のクラスタに属するトークンの例を示す。例えば,L3-H2
(レイヤー 3 におけるへッド番号 2 の略記. 以下同じ.)のヘッドにおいて大きなノルム伸縮率を示したクラスタは,西暦を表すと見られる Numbers タイプのクラスタ(ID357, ID347) および暦月を表す Words タイプのクラスタ (ID332, ID199)であり,「年月」という意味的特徵が抽出されていると考えられる. 同様に,L3-H11 は,句読点記号やタグのクラスタ (ID268, ID419) と冠詞・代名詞・接続詞などの機能語のクラスタ (ID675, 523, 176) を抽出しており,文構造を捕捉していると見られる。また,L4-H6 は活用形を含む動詞単語のクラスタを抽出している。
図 3 は,全へッドにおけるノルム伸縮率上位 3つのクラスタのトークンタイプを図示しており,レイヤー別の傾向が明らかである.低層(L0-L3)では,
図 $3 \psi_{q k v}$ 上位 3 タイプ(縦軸レイヤー;横軸へッド)
Symbols, Tags, Special タイプに属するクラスタが多く出現している.また,Wordsタイプでも機能語のクラスタが多く出現している。低層のヘッドでは文の構造把握を行なっていることが推察される. 中層 (L4-L7)では,Words と Subwords タイプのクラスタが多く見られるようになり,形態素から意味を把握する,あるいは単語を組み合わせ句の意味を合成するなどの処理が行われていることが示唆される.高層 (L8-11) では,Words と Numbers タイプのクラスタが中心であり,一つのへッドの中でも単一のタイプのみが観察されるようになる。なお,異なるタイプが混在するへッドでも実質的に共通の特徴をもつクラスタを抽出している場合がある。
## 5 考察と結論
本研究の提案するノルム伸縮率を用いた分析手法により, Transformer のアテンションヘッドが解釈可能な言語的特徴を共有するクラスタを抽出していることが明らかになった. Transformer が文の意味理解や意味合成を実現していることを踏まえると,各ヘッドはそのために必要な言語的特徴を抽出していることが示唆される.
今後の研究として,単語ベクトルの意味合成メカニズムを解明する観点からは,Words タイプのクラスタに対応するへッドにおいて,高いノルム伸縮率を示す単語の組み合わせにおいて実行されている状態ベクトルの更新をトークンレベルで分析することが考えられる。その際,位置ベクトルがアテンションにおいて相対位置を指示する [18]こと,また位置ベクトルと単語埋め込みは直交していること(付録 B)を踏まえた分析を行う必要がある.
## 謝辞
本研究は科研費基盤研究 B(一般)JP23H0369, JST さきがけ JPMJPR20C9, JPMJPR21C2, JST CREST JPMJCR23P4 の助成を受けて行われた。
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[2] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A primer in BERTology: What we know about how BERT works. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 842-866, 2020.
[3] Yonatan Belinkov and James Glass. Analysis methods in neural language processing: A survey. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 49-72, 2019.
[4] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D. Manning. What does BERT look at? an analysis of BERT's attention. In Tal Linzen, Grzegorz Chrupa la, Yonatan Belinkov, and Dieuwke Hupkes, editors, Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, Florence, Italy, August 2019. Association for Computational Linguistics.
[5] 石井健一郎, 上田修功, 前田英作, 村瀬洋. わかりやすいパターン認識. オーム社, 2001.
[6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[7] John Hewitt and Christopher D. Manning. A structural probe for finding syntax in word representations. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[8] Mor Geva, Avi Caciularu, Kevin Wang, and Yoav Goldberg. Transformer feed-forward layers build predictions by promoting concepts in the vocabulary space. In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, pp. 30-45, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics.
[9] Mor Geva, Jasmijn Bastings, Katja Filippova, and Amir Globerson. Dissecting recall of factual associations in auto-regressive language models. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 12216-12235, Singapore, December 2023. Association for Computational Linguistics.
[10] Nelson Elhage, Neel Nanda, Catherine Olsson, Tom Henighan, Nicholas Joseph, Ben Mann, Amanda Askell, Yuntao Bai, Anna Chen, Tom Conerly, Nova DasSarma, Dawn Drain, Deep Ganguli, Zac Hatfield-Dodds, Danny Hernandez, Andy Jones, Jackson Kernion, Liane Lovitt, Kamal Ndousse, Dario Amodei, Tom Brown, Jack Clark, Jared Kaplan, Sam McCandlish, and Chris Olah. A mathematical framework for transformer circuits. Transformer Circuits Thread, 2021. https://transformercircuits.pub/2021/framework/index.html.
[11] Guy Dar, Mor Geva, Ankit Gupta, and Jonathan Berant. Analyzing transformers in embedding space. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 16124-16170, Toronto, Canada, July 2023. Association for Computational Linguistics.
[12] Ashish Vaswani. Stanford CS224N: Transformers and selfattention, 2019. https://youtu.be/5vcj8kSwBCY? si=MWmbBwoBUekksSuR.
[13] Grégoire Allaire, Sidi Mahmoud Kaber, Karim Trabelsi, and Grégoire Allaire. Numerical linear algebra, Vol. 55. Springer, 2008.
[14] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attnetion is not only a weight: Analyzing transformers with vector norms. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 7057-7025, 2020.
[15] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation, 2016.
[16] scikit learn. sklearn.cluster.kmeans, 2024. https://scikitlearn.org/stable/modules/generated /sklearn.cluster.KMeans.html.
[17] Hugging Face. BERT base model (uncased), 2024. https://huggingface.co/bert-base-uncased.
[18] 山本悠士, 松崎拓也. 自己注意機構における注意の集中が相対位置に依存する仕組み. 言語処理学会第 29 回年次大会発表論文集, pp. 633-638, 2023.
## A クラスタリングの概要
BERT において用いられている 30,522 個のトークンの埋め込みを k-means 法により 1000 個のクラスタにクラスタリングした結果の概要を表 3 に示す.
表 3 単語ベクトルのクラスタリング
& & & & \\
Subwords & 248 & 5,561 & 22.4 & 1.61 & 1.06 \\
Symbols & 13 & 1,096 & 84.3 & 1.35 & 0.75 \\
Numbers & 43 & 973 & 22.6 & 1.45 & 0.60 \\
Special & 1 & 995 & 995.0 & 1.16 & 0.71 \\
Tags & 1 & 2 & 2.0 & 1.33 & 0.71 \\
表中の Type はトークンのタイプを表し, 著者がマニュアルで分類した. クラスタ間の類似性を調べるために,1000 のクラスタに対して再度クラスタリングを行った. 具体的には,各クラスタのセントロイド(ベクトル)に対して,(上位)クラスタ数を 7 として k-means 法を適用した. その結果,7つの上位クラスタのうち,2つの上位クラスタは,ほとんど Words に対応するクラスタを含んでおり,残りの 5 つの上位クラスタに含まれるクラスタは Words 以外のタイプにそれぞれ対応していた。
一方, Words タイプに属しているクラスタ 694 個のうち 65 個は, 100 語以上の単語を含んでいる. すなわち, Words タイプのトークンの一部に対応するベクトルが密な部分空間に存在している. より詳細な言語的特徴に基づく分析を行う場合は,これら密に存在するべクトルは下位クラスタに再分割することが望ましい. 下位クラスタへのクラスタリングにより,詳細な統語的・意味的なカテゴリを共有するクラスタへ細分類することが期待される。
## B 位置ベクトルとの直交性
BERT に入力されるトークン列の状態ベクトルには,それぞれのトークンに対応する単語埋め込み $X_{e m b} \in \mathbb{R}^{n \times d}$ とそのトークンの文中の位置番号に対応した位置べクトル $X_{p o s} \in \mathbb{R}^{n \times d}$ の和 $X:=X_{e m b}+X_{p o s}$ が用いられる. 位置べクトルは文長の個数だけ存在し, BERT の base モデルの場合は 512 個が事前学習により獲得されている.
単語埋め込みと位置ベクトル(いずれも 768 次元のベクトル)について主成分分析結果(図 4)より両者は分離された部分空間に住むことがわかる.
図 4 単語埋め込みと位置ベクトルの主成分分析
図 5 は,単語埋め込みと位置ベクトルの組み合わせ $30,522 \times 512$ 対のコサイン類似度の分布を示す. これは,単語埋め込みと位置べクトルが多くの場合直交することを示す. 例外的に文頭を表すタグ [CLS] に対応する単語埋め込みと, トークン位置 0 に対応する位置ベクトルのコサイン類似度は 0.99 であり,直交する空間と補空間の交線上にある.
図 5 単語埋め込みと位置ベクトルの直交性
位置ベクトルは単語間の相対位置を符号化しており [18], 図 6 に示すように一部のへッドは, skip-gram のように機能している.
図 6 位置ベクトルから計算されるへッド別アテンションウェイト (Layer0 の例) | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-1.pdf | # Dynamic Inference Thought in Large Language Models
鈴木 拓真 川本 樹 三山 航
目黒拓己 鈴木中穂美 高木友博
明治大学大学院
stakuma9912@gmail.com tatsuki.00.0306@gmail.com chinpanzi914@gmail.com
takumimeguro1321@gmail.com nsuzuki1900@gmail.com takagit@gmail.com
## 概要
本論文では、LLM が必要に応じて事前知識を参照しながら動的に推論を進める新しいフレームワー クを提案する。私たちのアプローチでは、LLMによる推論とその推論を改善するプロセス、そして現在の思考が十分かを LLM により判断して最終的な回答を推論する。高度な推論を複数の単純な推論に分割すること、多段推論を動的に行うことにより、推論精度の向上を達成する。ANLI データセットを用いて、このフレームワークの有効性を検証しており、先行研究と比較して、最大で $32 \%$ の精度向上を達成した。また、定性的評価も行い、本アプローチが従来手法よりも論理的に推論を行えていることを確認した。
## 1 はじめに
近年、ChatGPT などの大規模言語モデル (LLM) は、多くの自然言語処理や関連分野において素晴らしい性能を示しており、特に推論タスクにおいて、推論能力向上のための様々なプロンプトエンジニアリングに関する研究がなされている $[1,2,3]$ 。
依然として、LLM は人間には問題のない一般的な計画/推論タスクで受け入れ可能なパフォーマンスを持っておらず、それは現在最も優れた LLM である GPT-4 においても同様である $[4,5]$ 。
これは、推論を多段で行う機構を持っておらず、 このような推論プロセスを一回の呼び出しのみで実行することが求められる通常のアプローチでは、不十分なパフォーマンスを引き起こす。そして、その課題解決のために、様々な推論精度向上のための研究が行われている。
例えば、推論過程を例示するChain of Thought(CoT)[6] や、外部メモリを活用して、LLMが事前に推論した大量の問題と推論結果を利用する
Memory of Thought(MoT)[7] などがある。しかし、これらのアプローチによる推論のサポートは暗黙的であり、LLM に求められる処理の難しさは単一呼び出しのアプローチと同じため、問題は本質的に解決されていない。
そこで、私たちはこの課題に対処するために、新しいフレームワークを導入し、LLM の推論過程を明示的かつ多段にし、各推論を単純化することによる推論精度の向上を達成する。私たちのフレームワー クの考え方は主に 2 つの既存研究にインスパイアされている。複雑な 1 つのタスクを複数の単純なタスクに分割して解いていくことによって精度を向上する Least-to-Most Prompting(L2M)[8] と与えられたコンテキストから文を選択する選択モジュールと、選択された文から 1-hop 推論を行う推論モジュー ルを使用し、二つのモジュールを交互に繰り返すことで multi-hop 推論を行う Selection-Inference(SI)[9] である。
SI では、選択と推論の反復回数をハイパーパラメータとして事前に設定する必要があるが、適切な解を出すのに必要な推論ステップ数は事前に決まることはなく、ステップ数の過不足は推論精度低下の原因となる。そのためステップ数は推論過程で動的に決定する必要があり、これは SI の本質的な欠点であるといえる。
私たちは、SIにおける反復のような思考の改善をいつ止めるべきかについてを、LLM に判断させ、思考の改善に関しても、必要に応じて LLM が持つ事前知識を利用し、補完することにより上記の課題に対処した。
これにより、例えば、「Xはイギリスで生まれた」 という仮説に対して、コンテキスト中に「Xはロンドンで生まれた」というような記述しかない場合においても、「X はロンドンで生まれた」という事実と、「ロンドンはイギリスにある」という事実を組
(3) 改善
図 1 提案フレームワークの概要
み合わせて「X はイギリスで生まれた」と推論することができる。
## 2 関連研究
Chain of Thoughts(CoT)[6] は、モデルが問題を解決する際に、中間ステップや推論の過程を明示的に生成し、最終的な答えに至るまでの思考の流れを卜レース可能にするアプローチである。これにより、精度向上とモデルの判断基準や推論プロセスの透明化を達成している。一方で、 100 億パラメータ以上のモデルサイズやメモリ機能が要求されており、本質的な解決には至っていない。
Selection Inference(SI)[9] は、LLM を複数回呼び出すシンボリックアプローチである。しかし、反復回数は固定されており、事前に設定する必要があるため、タスクには必要な推論ホップの固定回数を持つ必要がある。これに対して、Faithful Reasoning[10] は SI がステップ数において反復をいつ停止するかを判断できない問題を解決し、推論が十分であるかどうかを判断する LLM「Halter」を用意した。Halter は自身で停止反復を決定することができるが、各夕スクごとに追加で Language Model をファインチュー ニングする必要があり、Halter では様々なタスクに対して動的に対応することができない。
Tree of Thoughts(ToT)[11] は、タスク解決までの中間プロセスをツリー構造で表現し、同時並行で複数の思考を追求するアプローチである。CoT のような線形推論経路では、各サブ問題には複数の適切なオプションがある場合に思考を制限してしまう問題に対処しており、各サブ問題に対して可能なオプションを考慮して、外部のツリーサーチメカニズム (例:BFS、DFS)によって決定木を探索できる。また、LLM の評価能力を効率性向上のためのノード刈り込みに使用している。
Graph of Thoughts (GoT) [12] は、LLMによって生成された情報を任意のグラフとしてモデル化するフレームワークである。このフレームワークにより、思考の改善、思考の分解、思考の集約により柔軟に組み合わせて答えに至ることが可能になり、より人間の思考プロセスに近づけている。GoT では、思考の単位をノードとしてグラフ内に表し、これらの思考間の依存関係や接続をエッジとして描く。この構造は、人間の思考プロセスを線形のチェーンだけでなく、人間が考えるより複雑で非線形な方法を反映するネットワークとしてもモデル化が可能である。
一方で、ToT、GoTでは、どのタイミングで推論を止めるかについては動的に判断することを行なっていない。推論の手順を事前に生成することで対応しているが、プランの生成には GPT-4 のような高度な推論スキルが必要であるため、CoT と同様に本質的な解決には至っていない。
## 3 モデル
このセクションでは、私たちが提案する、論理的で正確な推論のためのフレームワークについて記述する。提案手法の主な考え方に関しては図 1 に示しており、問題から結論までのプロセスは以下の 4 ステップに分けられる。
1. 中間推論ステップ
与えれた入力に対する推論(ここでは中間推論とよぶ)を行う。
2. 改善の必要性判断ステップ
問題に回答するために十分な結論が得られているかどうかを LLM が判断する。
3. 改善ステップ
(2) で改善が必要だと判断された場合に、問題に付属するコンテキストもしくは、事前知識を用いて中間結論を改善する。
図 2 実験上における実装モデル
## 4. 最終推論ステップ
(2) で改善が必要なしと判断された場合に、それまでの中間結論を最終的な結論とする。
## 4 Experiment
## 4.1 実験設定
提案するフレームワークの有効性を確認するために、ANLI データセット [13] を用いて実験を行った。各データでは、コンテキスト c と仮説 h、そして答えaが与えられており、コンテキスト cには仮説 hに関する記述がある場合 (Entailment)、関係する記述がない場合 (Neutral)、対立する記述がある場合 (Contradiction) の 3 つのパターンが存在し、モデルは各データがどのパターンに該当するかをに関して推論を行う。コンテキスト中には、回答をサポートする文章だけでなく回答には不必要な情報も含まれる。また、コンテキスト c と仮説 h の整合性判断のためには、コンテキスト中に記述された情報だけでは不十分で、一般的知識を用いて補完する必要がある場合も存在する。
私たちは、このデータセットから A1 の 1000 個のデータを使用し、評価実験を行った。モデルは、 LLaMA2-13b-chat[14]を利用している。各モジュー ルに関しては、 3 ショットプロンプトを使用しており、例題に関しては訓練データからサンプルしている。
## 4.2 実験における提案モデル
NLI タスクを用いた実験時には、精度向上のため細かい処理をいくつか追加しており、詳細を図 2 に示す。各モジュールに関しては以下の通りである。
1. Neutral 判定モジュール
仮説に関する文が文脈中に存在するかを推論。
Neutral の場合、多段推論の必要がないため、最初の段階で判断する。
2. 中間推論モジュール
文脈を参照し、仮説に対して推論を行う。
3. 判断モジュール
現在の中間推論が、仮説とコンテキストとの整合性を推論するために十分な情報を持っているかを判断する。
4. 改善モジュール
中間推論が不十分であると判断された場合に、 コンテキスト中もしくは、LLM が持つ事前知識を利用して中間推論の改善に必要な情報を生成する。
5. 整形モジュール
中間推論に、改善モジュールで生成した情報を組み込み、新たな中間推論として整形する。
6. 回答モジュール
中間推論を用いて、最終的な仮説とコンテキストの内容との整合性判断の推論を行う。
## 4.3 比較手法
・IO:モデルには仮説とコンテキストが入力され、モデルが回答のみを生成する。
- CoT:仮説とコンテキストがモデルに入力され、 モデルが推論過程と回答を生成する。
・SI:モデルはコンテキスト中から 2 つの文を選択し、選択した 2 つの文から 1 つの推論を行う。この選択と推論を 1 ステップとして扱われる。SI ではステップ数はハイパーパラメータであり、今回は 3 ステップとして設定している。比較するすべての手法において、3-shot で推論を行っている。
(a) IO
(b) CoT
(c) SI
(d) Ours
図 3 各アプローチによる出力の違い
## 4.4 定性評価
各方法の出力を検証することによって、私たちのフレームワークが動的に推論を進めることができるかを確認する。例題と、それに対する各手法の出力の違いは図 3 に示す。IO、CoT では、誤った回答をしており、その原因も不明、または曖昧な状態である。SIでは、回答は誤ったままであるが、推論過程は明確である。最初に BFS に資金提供しているのはアメリカであることをコンテキストから推論している。しかし、コンテキストに含まれない「アメリカがメキシコの上側にある国である」という一般常識的な知識を利用できず、推論が発展せず、結果として最後の推論時に誤った回答をしてしまっている。一方で、提案手法では、思考の改善段階で、仮説の表現に従って「アメリカがメキシコの上側にある国」という必要な情報を付加することにより推論を改善を行えることが確認された。
## 4.5 定量評価
生成された回答が真実の回答と一致するかにより精度を測定した。定量的評価の結果を表 1 に示す。私たちが提案したフレームワークが最良の精度を達成し、本フレームワークの有効性を示している。 CoT の精度は IO よりも精度が上がっており、これは LLaMA2-13b-chat の推論精度が高いことを示しており、簡単なタスクであれば十分な推論能力を持っ
ていることがわかる。
表 1 実験結果
## 5 結論と展望
本論文では、LLMが必要に応じてコンテキスト中もしくは、事前知識を参照しながら動的に推論を進める新たなフレームワークを提案した。このフレー ムワークでは、推論プロセスを複数のモジュールに分割することによる各推論の簡易化や、動的な思考の改善により LLM がより精度の高い推論を行うことをサポートしている。ANLI データセットを用いた精度による定量評価や、実際の推論過程を確認する定性評価を通して本フレームワークの有効性を示した。
一方で、提案するフレームワークでは、現状単一の推論過程のために、思考が大幅に制限されている。関連研究にある ToT[12]、GoT[13]のように複数の思考を展開することは、推論精度の観点から重要な要素である。そのため、将来的に本フレームワー クの複数思考への拡張を考えている。
## 参考文献
[1] Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, and Pascale Fung. A multitask, multilingual, multimodal evaluation of chatgpt on reasoning, hallucination, and interactivity, 2023.
[2] Vedant Gaur and Nikunj Saunshi. Reasoning in large language models through symbolic math word problems, 2023.
[3] Jie Huang and Kevin Chen-Chuan Chang. Towards reasoning in large language models: A survey, 2023.
[4] Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, and Subbarao Kambhampati. Large language models still can't plan (a benchmark for llms on planning and reasoning about change), 2023.
[5] Konstantine Arkoudas. Gpt-4 can't reason, 2023.
[6] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, and Denny Zhou. Chain-of-thought prompting elicits reasoning in large language models, 2023.
[7] Xiaonan Li and Xipeng Qiu. Mot: Memory-of-thought enables chatgpt to self-improve, 2023.
[8] Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Claire Cui, Olivier Bousquet, Quoc Le, and Ed Chi. Least-tomost prompting enables complex reasoning in large language models, 2023.
[9] Antonia Creswell, Murray Shanahan, and Irina Higgins. Selection-inference: Exploiting large language models for interpretable logical reasoning, 2022.
[10] Antonia Creswell and Murray Shanahan. Faithful reasoning using large language models, 2022.
[11] Jieyi Long. Large language model guided tree-of-thought, 2023.
[12] Maciej Besta, Nils Blach, Ales Kubicek, Robert Gerstenberger, Lukas Gianinazzi, Joanna Gajda, Tomasz Lehmann, Michal Podstawski, Hubert Niewiadomski, Piotr Nyczyk, and Torsten Hoefler. Graph of thoughts: Solving elaborate problems with large language models, 2023.
[13] Yixin Nie, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston, and Douwe Kiela. Adversarial nli: A new benchmark for natural language understanding, 2020.
[14] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan
Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, and Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models, 2023. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-2.pdf | # 大規模言語モデル事前学習の安定化
高瀬翔 1,2 清野舜 1,2 小林颯介 ${ }^{3}$ 鈴木潤 3
${ }^{1}$ LINE ヤフー株式会社 ${ }^{2}$ SB Intuitions 株式会社 3 東北大学
\{sho. takase, shun.kiyono\}@lycorp.co.jp
sosk@preferred.jp jun.suzuki@tohoku.ac.jp
## 概要
大規模言語モデルの事前学習では損失スパイクがしばしば起きることが知られている。損失スパイクはモデルの性能を低下させ,学習が失敗してしまうこともある.この損失スパイクの原因を探るため,本研究では中間層の勾配に着目する. 理論的な分析を通じて,大規模言語モデルの事前学習では LN 層が勾配爆発を引き起こすこと,および,その解決法を示す. 実験を通じて LN 層の勾配爆発を抑制することで損失スパイクも抑制されることを示す。
## 1 はじめに
GPT をはじめ大規模言語モデル(Large Language Model,以降本稿では LLM と記す)は様々なアプリケーションの根幹となっている $[1,2,3]$. LLM は大規模な訓練データで事前学習した大量のパラメー タを持つニューラル言語モデルであり,性能はパラメータ数と訓練データ量に対数比例することが知られている [4]. 事前学習は大量の計算資源を必要とするため学習が失敗するリスクを極力低減することが求められている.
Transformer [5] は多くの LLM に採用されているニューラルモデルであるが,その挙動の包括的な理論的理解には至っていない. 例えば,図 1 の Vanilla のように,Transformerを用いた LLM の事前学習では損失関数の値が跳放上がり(損失スパイク),また,しばしば発散してしまう現象が知られているが [2],なぜ発生するのかは明らかにされていない.損失スパイクへの対処として様々な手法が提案されているが $[2,6,7]$, これらの理論的な正当化もなされていないため,既存研究の報告と異なるパラメー タ数のモデルなど,状況が異なる場合でも適用できるかには疑問が残る。
本研究では LLM の事前学習における損失スパイクの理論的な分析を行う. 特に初期化手法が学習に
図 117 億パラメータの,Transformer を用いた LLM の事前学習における訓練データでの損失関数の值の例. Vanilla は学習初期の段階で損失スパイクが何度か発生し, 13000 ステップで発散してしまっている. 開発データでの損失関数の値は付録 A の図 4 (a) に示す.
与える影響について議論する。Transformer を LLM に用いる場合,Self-attention 層と FFN 層の出力べクトルの標準偏差が小さくなる初期化を行うと学習が安定することが経験的にも理論的にも示されている $[8,6,9,10]$. 一方で,本研究では,このような初期化を行った場合には Layer Normalization (LN)層 [11] が勾配爆発を引き起こしてしまうことを示す.さらに,LN 層での勾配爆発を防ぐための要件を示し,モデルの簡易な修正でこの要件を達成できることを示す.
理論的な分析を検証するため LLM の事前学習の実験を行う.上記の,LN 層での勾配爆発を防ぐ要件を満たしている場合には損失スパイクが発生せず,満たしていない場合には,仮に既存研究で損失スパイクへの対処として提案された手法であっても損失スパイクが発生してしまうことを示す.
## 2 議論の準備
## 2.1 Pre-LN Transformer
本研究では,GPT $[12,13,1]$ などでも用いられている,Pre-LN Transformer [14] を対象に分析を行う. Pre-LN Transformer はオリジナルの Transformer より
も学習が安定することが示されている $[14,15,16]$. Transformer のある層への入力を $x \in \mathbb{R}^{d}$ としたとき, その層の出力 $y$ は以下の式で得られる:
$
\begin{aligned}
y & =x^{\prime}+\operatorname{FFN}\left(\operatorname{LN}\left(x^{\prime}\right)\right) \\
x^{\prime} & =x+\operatorname{Attention}(\operatorname{LN}(x))
\end{aligned}
$
以降では,式 (1),(2)の第 1 項,すなわち, $x$ と $x^{\prime} を$ residual branch と呼ぶ. また, FFN と Attention の定義は以下のとおりである1):
$
\begin{aligned}
\operatorname{FFN}(x) & =\mathscr{F}\left(x W_{1}\right) W_{2}, \\
\operatorname{Attention}(x) & =\operatorname{concat}\left(\operatorname{head}_{1}(x), \ldots, \operatorname{head}_{h}(x)\right) W_{O}, \\
\operatorname{head}_{i}(x) & =\operatorname{softmax}\left(\frac{x W_{Q i}\left(X W_{K i}\right)^{\mathrm{T}}}{\sqrt{d_{\text {head }}}}\right) X W_{V i},
\end{aligned}
$
ここで F は活性化関数2),concat は大力されたべクトルを結合する関数,softmax はソフトマックス関数, $W_{1} \in \mathbb{R}^{d \times d_{f f n}}, W_{2} \in \mathbb{R}^{d_{f f n} \times d}, W_{Q i} \in \mathbb{R}^{d \times d_{\text {head }}}$, $W_{K i} \in \mathbb{R}^{d \times d_{\text {head }}}, W_{V i} \in \mathbb{R}^{d \times d_{\text {head }}}, W_{O} \in \mathbb{R}^{d \times d}$ は重み行列である. また, $X$ は Self-attention 計算のために,系列分の層への入力ベクトルをまとめた行列である.
## 2.2 初期化手法
初期化手法はニューラルモデルの学習の挙動に多大な影響を及ぼすことが知られており,Transformer の初期化についても様々な手法が提案されている $[17,18,19,20]$. 本研究では, LLM の事前学習において広く使われている初期化手法 $[8,6,9]$ を用いる前提で議論を行う.この初期化手法では $\sigma=\sqrt{2 / 5 d}$ とし $[18], W_{2}$ と $W_{O}$ 以外の重み行列を $\mathcal{N}(0, \sigma)$ の正規分布を用いて初期化する. $W_{2}$ と $W_{O}$ については標準偏差がより小さな値となるよう, $\mathcal{N}(0, \sigma / \sqrt{2 N})$ を用いて初期化を行う。なお, $N$ は層の数である.
## 3 事前学習の不安定性の分析
我々は勾配爆発が学習を不安定にし,損失スパイクを引き起こしていると考えている. 本節では, $\mathrm{LN}$ 層が勾配爆発を引き起こすこと,また,勾配爆発を防ぐ手法を紹介する。
## 3.1 LN 層での勾配爆発
Xiong らは下記式のように,LNの勾配のノルムは入力ベクトルのノルムに依存することを証明し
1)簡略化するために本稿ではバイアス項を抜いている.
2)議論を単純にするために,本稿では恒等写像を仮定する.
た $[14]^{3)}:$
$
\left.\|\frac{\delta \operatorname{LN}(x)}{\delta x}\right.\|_{2}=\sigma\left(\frac{\sqrt{d}}{\|x\|_{2}}\right),
$
ここで, $x$ が正規分布に従うとすると,$x$ の平均は 0 であり $x$ のノルムは標準偏差に比例するため,標準偏差を考えればノルムが得られる。具体的には, $\operatorname{std}(x)$ を $x$ の標準偏差とすると, $\|x\|_{2}=\sqrt{d} \operatorname{std}(x)$ となる. よって上記の式は下記のように変形できる:
$
\left.\|\frac{\delta \mathrm{LN}(x)}{\delta x}\right.\|_{2}=\sigma\left(\frac{1}{\operatorname{std}(x)}\right)
$
すなわち, $\operatorname{std}(x) \ll 1$ の場合に $\mathrm{LN}$ 層は勾配のノルムを著しく増加させる.勾配がどこで増加しているかを推定するため,LNに入力されるべクトルの標準偏差を調べていく.
2.1 節で記したように, 各中間層の出力が $\mathrm{LN}$ 層への入力となる. すなわち,式 (1),(2)のように, residual branch と $\operatorname{FFN}(x)$ もしくは Attention $(x)$ の和が次の層の $\mathrm{LN}$ 層への入力となる. ここで, $\operatorname{var}(x)$ をべクトル $x$ の分散とすると,正規分布に従うべクトル同士の和については下記が成り立つ:
$
\operatorname{var}(x+y)=\operatorname{var}(x)+\operatorname{var}(y) .
$
従って, $\operatorname{FFN}(x)$ および Attention $(x)$ で得られるべクトルもまた正規分布に従うと仮定した場合 ${ }^{4}$,各層の出力の分散については, residual branch, $\operatorname{FFN}(x), \operatorname{Attention}(x)$ の分散を考えれば良い. 第 1 層目の residual branch は埋め込み表現であり,埋め込み表現は $\mathcal{N}(0, \sigma)$ で初期化されている. 2.2 節より, $\sigma=\sqrt{2 / 5 d} \ll 1$ であるため, $\operatorname{std}(\mathrm{FFN}(x))$ と $\operatorname{std}(\operatorname{Attention}(x))$ が 1 よりも十分小さければ,式 (8) より各層の出力の標準偏差も 1 より十分小さく, LN 層によって勾配が爆発する。
学習初期の $\operatorname{var}(\mathrm{FFN}(x))$ は以下の式で得られる:
$
\operatorname{var}(\mathrm{FFN}(x))=d_{f f n} d \operatorname{var}(x) \operatorname{var}\left(W_{1}\right) \operatorname{var}\left(W_{2}\right)
$
なお,式 (1) にあるように FFN の計算前には LN が適用されるので $\operatorname{var}(x)=1$ である. 多くの研究で採用されている值と同様に $d_{f f n}=4 d$ とし, $\operatorname{var}\left(W_{1}\right)$ と $\operatorname{var}\left(W_{2}\right)$ については 2.2 節での値を代入すると,
$
\begin{aligned}
\operatorname{var}(\operatorname{FFN}(x)) & =4 d d \frac{2}{5 d} \frac{2}{5 d} \frac{1}{2 N} \\
& =\frac{8}{25 N}
\end{aligned}
$
3)Xiong らの証明は RMSNorm [21] にも適用できるため,本稿での議論は LNを RMSNorm に代えても成立する.
4)各パラメータを正規分布で初期化しているため,F゙恒等写像と置き, Attention $(x)$ のヘッドが 1 の場合にはこの仮定は成立する.実際のモデルにおいてどの程度現実的な仮定となっているかの検証は今後の課題である.
図 2 事前学習初期の Transformer の各層の勾配のノルム.一般にLLM においては $N>10$ であるため, $\operatorname{std}(\mathrm{FFN}(x))=\sqrt{8 / 25 N} \ll 1$ となる.
次に $\operatorname{var}(\operatorname{Attention}(x))$ について考える。まず $\operatorname{var}\left(\operatorname{head}_{i}(x)\right)$ について考える. $Z=\frac{x W_{Q i}\left(X W_{K i}\right)^{\mathrm{T}}}{\sqrt{d_{\text {head }}}}$ とすると $\operatorname{var}\left(\operatorname{softmax}\left(\frac{x W_{Q i}\left(X W_{K i}\right)^{\mathrm{T}}}{\sqrt{d_{\text {head }}}}\right) X\right)=\operatorname{var}(\operatorname{softmax}(Z) X)$ と書ける. $X$ は LN を適用されたべクトルをまとめたものであるため, $\operatorname{var}(\operatorname{softmax}(Z) X)$ は $\operatorname{softmax}(Z)$ が 1-hot ベクトルである場合に最大値である 1 となる5). 従って,式 (5) の分散は以下で得られる:
$
\begin{aligned}
\operatorname{var}\left(\operatorname{head}_{i}(x)\right) & =\operatorname{var}(\operatorname{softmax}(Z) X) d \operatorname{var}\left(W_{V i}\right) \\
& =\operatorname{var}(\operatorname{softmax}(Z) X) d \frac{2}{5 d} \\
& <\frac{2}{5}
\end{aligned}
$
従って, $\operatorname{var}(\operatorname{Attention}(x))$ は以下の式で得られる:
$
\begin{aligned}
\operatorname{var}(\operatorname{Attention}(x)) & =\operatorname{var}(\operatorname{head}(x)) d \operatorname{var}\left(W_{O}\right), \\
& =\operatorname{var}(\operatorname{head}(x)) d \frac{2}{5 d} \frac{1}{2 N}, \\
& =\operatorname{var}(\operatorname{head}(x)) \frac{1}{5 N} \\
& <\frac{2}{25 N}
\end{aligned}
$
$\operatorname{std}(\mathrm{FFN}(x))$ の際と同様に $N>10$ であるため, $\operatorname{std}(\operatorname{Attention}(x))<\sqrt{2 / 25 N} \ll 1$ となる. これらから,特に浅い層において ${ }^{6)}$, 式 (1),(2) の出力べクトルの標準偏差は 1 より十分小さく, LN 層によって勾配が爆発する。
## 3.2 LN 層の勾配の安定化手法
$\mathrm{LN}$ 層での勾配爆発を防ぐためには $\mathrm{LN}$ 層へ入力するべクトルの標準偏差が 1 に近い値である必要が
5)なお, $\operatorname{softmax}(Z)$ が一様分布となる場合に最小值となり,入力系列が長いほど値が小さくなる. Li らは学習初期の入力系列は短い方が安定すると報告しているが [22], 本稿の議論から, $\operatorname{var}(\operatorname{softmax}(Z) X)$ の值が小さくなりすぎないように抑制する効果があるためと推測される.
6) $\mathrm{FFN}(x)$ と $\operatorname{Attention}(x)$ は層が深くなるごとに足されていくため,出力の標準偏差は層が深くなるほど大きくなっていく. 例えば,最終層では $N$ 回足されているため, 式 (10) と (12) の分母の $N$ を除去できる.
ある.これを達成するためには次のいずれかの方法がある:1. residual branch の標準偏差を大きくする, 2. $\operatorname{FFN}(x)$ と Attention(x) の標準偏差を大きくする. しかしながら,2 の場合には層が深くなるに連れての各層の出力のノルムの増加が著しく,これによって LN 層に起因しない勾配爆発が生じてしまう.悪影響を及ぼすことなくLN 層の勾配爆発を防ぐために,1を選択する。
第 1 層目の residual branch は埋め込み表現であるため,埋め込み表現の標準偏差を 1 に近づければ residual branch の標準偏差も 1 に近づく.これを達成する手法はいくつか考えられるが7),本稿では2 種,Scaled Embed と Embed LN を紹介する. Scaled Embed は適切な值で埋め込み表現をスケーリングするものである.例えば,埋め込み表現に $\sqrt{d}$ を掛け合わせると ${ }^{8)}$ ,埋め込み表現の標準偏差は $\sqrt{2 / 5}$ となる. Embed LN はLNを埋め込み表現に適用するもので,既存研究でも損失スパイクを防いだと報告されている [6]. 学習初期での各層の勾配のノルムを図 2 に示す.この図から,何も対処をしていない場合(Vanilla)は層が浅くなるに連れて勾配が大きく増大しているが, Scaled Embed と Embed LN は勾配のノルムが一定であることが分かる. すなわち, Scaled Embed と Embed LN は LN 層による勾配爆発を防いでいることが分かる。
## 4 実験
本稿での理論分析について,実際に LLM の事前学習を通して検証する。すなわち,勾配爆発を抑える要件を満たす手法は損失スパイクが発生しないこと,要件を満たしていない手法は既存研究では損失スパイクの抑制に効果があるとされていてもスパイクを引き起こしてしまうことを示す.
## 4.1 データセット
事前学習の訓練・開発データとしては Common $\mathrm{Crawl}^{9)}$ から抽出した英語コーパスである,C4 [25] を用いる. 語彙は Byte Pair Encoding(BPE)[26] で構築されている,GPT-2 [13] の語彙を用いる. 事前学習したモデルの評価には WikiText [27] と
7)例えば埋め込み表現と出力層のパラメータ共有 $[23,24]$ を行わない場合,埋め込み表現の初期化における $\mathcal{N}(0, \sigma)$ について $\sigma=1$ とすれば良い. 本稿では初期化は 2.2 節で紹介したものを用いる前提で議論を進める.
8)この手続きはオリジナルの Transformer では行われていたが [5],近年の実装では削除されている。
9) https://commoncrawl.org/
(a) 開発データでの損失関数の値.
(b) 勾配のノルム.
図 3 各手法の更新回数に対する開発データでの損失関数の值と勾配のノルム.
LAMBADA [28] データセットを用いてパープレキシティを計算する.
## 4.2 モデル設定
2 節で記したように,Pre-LN Transformer を用い, LLM の事前学習で広く使われている手法 $[8,6]$ で初期化する. モデルパラメータは 17 億とし, 層数 $N=24$, 各層の次元数 $d=2304$ とする. 入力の系列長は 2048 とし, 勾配ノルムを 1.0 でクリッピングする. 学習率 (lr) は $5.0 \times 10^{-4}$ とする ${ }^{10)}$ .詳細な八イパーパラメータは付録 B に記す.
## 4.3 比較手法
3 節で言及した Vanilla,Embed LN,Scaled Embed に加え, Embed Detachを比較手法とする. Embed Detach では下記式のように,埋め込み表現の勾配を部分的に計算グラフから切り離すことで勾配を縮小する [29]:
Embed $=\gamma$ Embed $+(1-\gamma)$ Detach $($ Embed $)$, ここで $\gamma$ はイパーパラメータであり,Detach は入力を計算グラフから切り離す関数である. Zeng らは Embed Detach を LLM の事前学習に適用することで学習が安定したと報告しているが,この手法は本稿で説明した勾配爆発を防げてはいないため,本質的には損失スパイクを抑制できていないはずである. 本実験では Zeng らと同様に $\gamma=0.1$ とする.
## 4.4 結果
図 3 に更新回数に対する各手法の開発データでの損失関数の值と勾配のノルムを示す.この図から分かるように, Vanilla と Embed Detach では損失スパイ
表 1 各手法のパープレキシティ.
クおよび勾配のノルムのスパイクが起きているが, Embed LN と Scaled Embed では起こっていない. すなわち,3 節で示した勾配爆発を防ぐ要件を満たす手法では損失スパイクが起きておらず,勾配爆発の抑制が LLM の事前学習の安定させることが分かる.
表 1 に各手法の WikiText と LAMBADA でのパー プレキシティを示す.この表から, Embed LN と Scaled Embed は Vanilla や Embed Detach よりも高い性能を達成していることが分かる. この結果は,損失スパイクを防ぐことは学習したモデルの性能向上にも貢献すると示唆している。また, Embed LN と Scaled Embed は同等の性能を達成していることから,損失スパイクを抑制していれば,手法間には性能に有意な差はないと考えられる.
## 5 おわりに
本研究では LLM の事前学習においてしばしば発生する,損失スパイクの原因を分析した. 勾配に着目し,LLM の事前学習では LN 層が勾配を増大させていること, residual branch の標準偏差を 1 に近づけることで勾配の増加を抑制できることを理論的に示した. 実験を通して, residual branch の標準偏差を 1 に近づける手法,すなわち, Embed LN と Scaled Embed は実際に損失スパイクや勾配のノルムのスパイクを抑制し, LLM の事前学習を安定化させることを示した.
## 謝辞
本稿の執筆にあたり理研 AIP の Benjamin Heinzerling 氏に有用な助言をいただきました。感謝いたします.
## 参考文献
[1] T. Brown, B. Mann, N. Ryder, et al. Language models are fewshot learners. In Advances in Neural Information Processing Systems 33 (NeurIPS), pages 1877-1901, 2020.
[2] A. Chowdhery, S. Narang, J. Devlin, et al. PaLM: Scaling language modeling with pathways, 2022.
[3] H. Touvron, L. Martin, K. Stone, et al. Llama 2: Open foundation and fine-tuned chat models, 2023
[4] J. Kaplan, S. McCandlish, T. Henighan, et al. Scaling laws for neural language models, 2020.
[5] A. Vaswani, N. Shazeer, N. Parmar, et al. Attention is all you need. In Advances in Neural Information Processing Systems 30 (NIPS), pages 5998-6008. 2017.
[6] T. Le Scao, T. Wang, D. Hesslow, et al. What language model to train if you have one million GPU hours? In Findings of the Association for Computational Linguistics: EMNLP 2022, pages 765-782, 2022.
[7] A. Zeng, X. Liu, Z. Du, et al. GLM-130b: An open bilingual pre-trained model. In The Eleventh International Conference on Learning Representations (ICLR), 2023.
[8] M. Shoeybi, M. Patwary, R. Puri, et al. Megatron-lm: Training multi-billion parameter language models using model parallelism, 2020.
[9] S. Biderman, H. Schoelkopf, Q. Anthony, et al. Pythia: A suite for analyzing large language models across training and scaling. In Proceedings of the 40th International Conference on Machine Learning (ICML), pages 2397-2430, 2023.
[10] S. Takase, S. Kiyono, S. Kobayashi, and J. Suzuki. Spike no more: Stabilizing the pre-training of large language models, 2023.
[11] J. L. Ba, J. R. Kiros, and G. E. Hinton. Layer normalization, 2016.
[12] A. Radford, K. Narasimhan, T. Salimans, and I. Sutskever. Improving language understanding by generative pre-training. 2018.
[13] A. Radford, J. Wu, R. Child, et al. Language models are unsupervised multitask learners. 2019.
[14] R. Xiong, Y. Yang, D. He, et al. On layer normalization in the transformer architecture. In Proceedings of the 37th International Conference on Machine Learning (ICML), pages 10524-10533, 2020.
[15] L. Liu, X. Liu, J. Gao, W. Chen, and J. Han. Understanding the difficulty of training transformers. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 5747-5763, 2020.
[16] S. Takase, S. Kiyono, S. Kobayashi, and J. Suzuki. B2T connection: Serving stability and performance in deep transformers. In Findings of the Association for Computational Linguistics: ACL 2023, pages 3078-3095, 2023.
[17] H. Zhang, Y. N. Dauphin, and T. Ma. Fixup initialization: Residual learning without normalization. In Proceedings of the 7th International Conference on Learning Representations (ICLR), 2019.
[18] T. Q. Nguyen and J. Salazar. Transformers without tears: Improving the normalization of self-attention. In Proceedings of the 16th International Conference on Spoken Language Translation (IWSLT), 2019.
[19] B. Zhang, I. Titov, and R. Sennrich. Improving deep transformer with depth-scaled initialization and merged attention. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pages 898-909, 2019.
[20] H. Wang, S. Ma, L. Dong, et al. Deepnet: Scaling transformers to 1,000 layers, 2022.
[21] B. Zhang and R. Sennrich. Root mean square layer normalization. In Advances in Neural Information Processing Systems 32 (NeurIPS), 2019.
[22] C. Li, M. Zhang, and Y. He. The stability-efficiency dilemma: Investigating sequence length warmup for training gpt models. In Advances in Neural Information Processing Systems 35 (NeurIPS), pages 26736-26750, 2022.
[23] O. Press and L. Wolf. Using the output embedding to improve language models. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pages 157-163, 2017.
[24] H. Inan, K. Khosravi, and R. Socher. Tying word vectors and word classifiers: A loss framework for language modeling. In Proceedings of the 5th International Conference on Learning Representations (ICLR), 2017.
[25] C. Raffel, N. Shazeer, A. Roberts, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, 21(140):1-67, 2020.
[26] R. Sennrich, B. Haddow, and A. Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), pages 1715-1725, 2016.
[27] S. Merity, C. Xiong, J. Bradbury, and R. Socher. Pointer Sentinel Mixture Models. In Proceedings of the 5th International Conference on Learning Representations (ICLR), 2017.
[28] D. Paperno, G. Kruszewski, A. Lazaridou, et al. The LAMBADA dataset: Word prediction requiring a broad discourse context. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), pages 1525-1534, 2016.
[29] M. Ding, Z. Yang, W. Hong, et al. Cogview: Mastering textto-image generation via transformers. In Advances in Neural Information Processing Systems 34 (NeurIPS), pages 1982219835, 2021.
(a) 17 億パラメータ, $\mathrm{lr}=1.0 \times 10^{-3}$.
(b) 17 億パラメータ, $1 r=5.0 \times 10^{-4}$.
(c) 17 億パラメータ, $\mathrm{lr}=1.0 \times 10^{-4}$.
(d) 130 億パラメータ, $1 r=3.0 \times 10^{-4}$.
(e) 130 億パラメータ, $\operatorname{lr}=1.0 \times 10^{-4}$.
図 417 億パラメータおよび 130 億パラメータで学習率を変えた際の各手法の開発データでの損失関数の値.
表 217 億パラメータの各手法の各学習率におけるパープレキシティ。
表 3130 億パラメータの各手法の各学習率におけるパープレキシティ。
## A パラメータ数・学習率を変えた実験
本節では 4 節での 17 億パラメータ,学習率 $5.0 \times 10^{-4}$ に加え,17 億パラメー タで学習率を $1.0 \times 10^{-3}, 1.0 \times 10^{-4}$ とした場合,および, 130 億パラメータでの実験を行う. 130 億パラメータは実際の LLM の事前学習の状況により近くなるよう,バッチサイズを大きな值とし,Adamの $\beta_{2}=0.95$ とした. $\beta_{2}=0.95$ は事前学習を安定にすると報告されている値である。また,学習率は Llama 2 [3] で用いられている $3.0 \times 10^{-4}$ と,より低い值である $1.0 \times 10^{-4}$ を用いた。 4 節と同様に,訓練・開発データは C4を,語彙には GPT-2のものを用いた.計算資源の都合上,ここでは Vanilla と Scaled Embed のみを対象に実験を行う.
図 4 に各手法の各設定での更新回数に対する開発データ上での損失関数の値を示す. 17 億パラメータについてである,図 (a), (b), (c) から明らかなように, Vanilla では学習率を大きくするほど損失スパイクが頻繁に発生するようになっている. 特に, 17 億パラメータのモデルを学習率 $1.0 \times 10^{-3}$ で学習した際には,
表 4 実験に用いたハイパーパラ
Vanilla では損失関数の値が発散してしまい,学習が失敗してしまっている。一方で,Scaled Embed については学習が安定しており,損失関数の値は更新回数に応じて一貫して下がっている. 130 億パラメータについては, $\beta_{2}=0.95$ としているからか,Vanillaでも学習率 $1.0 \times 10^{-4}$ で損失スパイクは見られない. しかしながら,高い学習率,すなわち, $\mathrm{lr}=3.0 \times 10^{-4}$ では損失関数の値が発散してしまっており,学習が失敗してしまっている. この結果から, $\beta_{2}=0.95$ のような学習を安定化させると報告されている状況においても,より安定した学習のために, residual branch の標準偏差を 1 に近づけることは必要と言える. 表 2, 表 3 に 17 億パラメータと 130 億パラメータの WikiText と LAMBADA データセットでのパープレキシティを示す. これらの表から, 17 億パラメータ,130 億パラメータ共に,学習率を変えた場合でも Scaled Embed は Vanilla と同等か,より高い性能を達成できていることが分かる.
## B ハイパーパラメータ
表 4 に実験に用いたハイパーパラメータを示す. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-3.pdf | # 大規模言語モデルに対する サンプリングを活用したメンバーシップ推論攻撃
綿 祐貴 ${ }^{1}$ 金子 正弘 ${ }^{2,1}$ Youmi Ma ${ }^{1}$ 岡崎 直観 ${ }^{1}$
1 東京工業大学 ${ }^{2}$ MBZUAI
\{yuki.wata@nlp.,youmi.ma@nlp., okazaki@\}c.titech.ac.jp
Masahiro.Kaneko@mbzuai.ac.ae
## 概要
本研究は,与えられたテキストがモデルの学習データに含まれていたかを判定するメンバーシップ推論攻撃に取り組む. 従来手法は,モデルが計算する尤度を必要としており,適用できるモデルが限られる.そこで,本研究では出力テキストだけから検出するサンプリングベース・メンバーシップ推論攻撃を提案する。提案手法は検出対象のテキストを参照テキスト,サンプルされたモデルの複数出力を候補テキストとし,それらの一致度合を計算し,テキストがモデルの学習データに含まれていたか判定する. 提案手法は尤度を利用しないにも関わらず,実験では既存手法と肩を並べる性能を発揮し,特に長いテキストを対象とした検出で高い性能を示した.
## 1 はじめに
大規模言語モデル (Large Language Models; LLM) の学習コーパスの規模が拡大するにつれ,GPT-4 [1] や PaLM 2 [2] などの開発者は, 組織の競争力を維持するため,学習データの準備や出典などの詳細の公表を控えるようになった。その結果,事前学習に用いた文書が分からないため,LLM が生成したテキストが剽窃にあたるか判断できず,著作権者および利用者の双方にリスクが生じうる [3]. 更に,評価用のベンチマークが LLM の学習データに含まれる場合,モデルの性能を適切に評価できない $[4,5,6]$.
本稿が取り組むタスクは,メンバーシップ推論攻撃(Membership Inference Attacks; MIA)[7] である. MIA タスクは,検出対象のテキストとモデルが与えられた際に,対象テキストがモデルの学習データに含まれていたかを判定するものである。一般に,モデルはデータに適合するように学習されるため,学習データに含まれるテキストは含まれないテキスト
図 1 サンプリングベース・メンバーシップ推論攻撃
よりも高い尤度を示す $[8,9]$. MIA の既存研究はこのアイディアに基づくため,モデルの尤度が計算できることを前提としており $[8,10,11,12,13]$ ,尤度を提供しないモデルには適用できない。一方,尤度を出力できるモデルの多くは学習データが公開されており $[14,15,16]$ ,MIAを使わずとも対象テキストが含まれるかを直接確認できる。そのため,MIAを適用したい対象は学習データが非公開のモデルであるにも関わらず,そのような LLM の多くは尤度を出力しないため $[1,2,17,18]$ ,MIAを実際に利用できる場面が限られている。
本稿では,尤度に依存しない MIA としてサンプリングベース・メンバーシップ推論攻撃(Samplingbased Membership Inference Attacks; SaMIA)を提案する。学習データが検出対象を含む場合,LLM は学習した正解テキストをそのまま出力すれば良いため,対象テキストと生成されたテキストは表層の一致率が高い $[10,19]$. 図 1 は SaMIA の具体的な検出手順を示している。対象テキストの冒頭部分をLLM に与え,その続きをサンプリングにより複数生成する。そして,生成された系列を候補テキス
ト,対象テキストの先頭以降の系列を参照テキストとみなし,それらのテキストの単語の一致度合を計算する。一致度合が閾値以上であれば対象テキストが LLM に学習されたと判定する。
SaMIA の有効性を検証するため,事前学習済みモデルに対し, 本手法の検出性能を既存手法と比較した. その結果, ROUGE-1 [20] とzlib 圧縮エントロピー [21]を併用した提案手法は尤度を利用していないが,既存手法と肩を並べる性能を発揮し,特に長いテキストを対象とした検出で高い性能を示した.分析では, グラム長, 候補テキストの数, 検出対象のテキスト長が SaMIA の性能に与える影響を調査した. SaMIA の性能は単語ユニグラムのときに高く, 候補テキスト数の増加に伴い改善され, テキストが長いほど効果的であるという知見が得られた。
## 2 サンプリングのみを活用した MIA
## 2.1 MIA タスクの定義
MIA は,モデル $f_{\theta}$ の学習データセット $D_{\text {train }}$ に対象テキスト $x$ が含まれるか否かの二値分類タスクである. 攻撃者の目標は, 適切な攻撃関数 $A_{f_{\theta}}: X \rightarrow\{0,1\}$ を設計し, テキスト空間 $X$ 中の事例 $x$ に対し $x \in \mathscr{D}_{\text {train }}$ の真偽を判定することである.
## 2.2 SaMIA
本稿では,LLM からサンプルした出力だけを活用する SaMIA を提案する. 本手法はモデル $f_{\theta}$ が損失 $\mathscr{L}$ やトークン尤度 $P_{\theta}$ を提供しない前提にあるため,より厳しい利用条件のもとにある. 提案手法は損失と尤度を利用しないため,任意の LLM に対して適用できる. 具体的な方法は, 長さ $n$ の検出対象のテキスト $x=\left(w_{1}, w_{2}, \ldots, w_{n}\right)$ を単語数に応じて前半と後半に分割し,前半を LLM に与えるプレフィックス $x_{\text {prefix }}=\left(w_{1}, w_{2}, \ldots, w_{\lfloor n / 2\rfloor}\right)$, 後半を参照テキスト $x_{\mathrm{ref}}=\left(w_{\lfloor n / 2\rfloor+1}, w_{\lfloor n / 2\rfloor+2}, \ldots, w_{n}\right)$ として使用する。 LLM は $x_{\text {prefix }}$ に続くテキストをサンプリングにより $m$ 個生成し, これらを候補テキスト $x_{\text {cand }}^{j}(j=1, \ldots, m)$ として検知に用いる.
LLM は学習した事例をそのままの形で漏洩する可能性がある $[10,19]$. そのため SaMIA は, 候補テキスト $x_{\text {cand }}^{j}$ と参照テキスト $x_{\text {ref }}$ の表層的な一致率が高い場合,元のテキスト $x$ が LLM の学習データに漏洩していると考える. テキスト間の一致率の評価指標には,参照テキストの単語の再現率である
ROUGE-N [20]を利用する.LLM が生成した候補テキスト $x_{\text {cand }}$ と,参照テキスト $x_{\text {ref }}$ が与えられたとき, ROUGE-N $\in[0,1]$ は式 1 に従って計算される.
ROUGE-N $\left(x_{\text {cand }}, x_{\text {ref }}\right)=\frac{\sum_{\text {gram }_{n} \in x_{\text {ref }}} \operatorname{Count}_{\text {match }}\left(\text { gram }_{n}\right)}{\sum_{\text {gram }_{n} \in x_{\text {ref }}} \operatorname{Count}\left(\text { gram }_{n}\right)}$
ここで, $n$ は n-gram の長さを表す.また,数式の分母は参照テキストの n-gram の総数であり,分子は候補テキストと参照テキストに共起する n-gram の総数を表す. 例えば ROUGE-1 は,参照テキスト中の単語が LLM に生成されるほど高い値となる.
SaMIA は,LLM が生成した各候補テキスト $x_{\text {cand }}^{j}$ と参照テキスト $x_{\mathrm{ref}}$ の間の ROUGE-Nを計算し,それら $m$ 個の平均が閾値 $\tau$ を超えるテキスト $x$ は学習データに含まれると判定する(式2)。
$
A_{f_{\theta}}(x)=\mathbb{1}\left[\frac{1}{m} \sum_{j=1}^{m} \operatorname{ROUGE}-\mathrm{N}\left(x_{\text {cand }}^{j}, x_{\text {ref }}\right)>\tau\right]
$
この検出指標の解釈は直接的で,テキスト $x$ が学習に用いられた場合,LLM は参照テキスト中の n-gram を多く生成するという仮説に基づく. SaMIA の疑似コードを付録 B の Algorithm 1 にまとめる.
## 2.3 サンプルの情報量を利用した改善
既存手法である PPL/zlibでは生成テキストの冗長性の特徴を利用して評価するために,zlibが計算する情報量を用いた [10]. 未学習データのサンプルは繰り返し生成 (例: “I love you. I love you...”) を含む傾向があり,そのようなサンプルの zlib 圧縮後の情報量が小さくなると考えられる.PPL/zlibは,サンプル $x$ のパープレキシティと zlib 圧縮後のビット数 $\operatorname{zlib}(x)$ の比率を検出指標する(式 3).
$
A_{f_{\theta}}(x)=\mathbb{1}\left[\frac{\prod_{i=1}^{n} P_{\theta}\left(x_{i} \mid x_{1: i-1}\right)^{-\frac{1}{n}}}{\operatorname{zlib}(x)}<\tau\right]
$
ここで, $\operatorname{zlib}(x)$ はテキスト $x$ を zlib 圧縮したときのエントロピーをビット数で表す。
$\operatorname{zlib}(x)$ はテキスト $x$ の文字情報のみに依存する指標であるため,SaMIA にも適用できる。また, SaMIA(式 2)は候補テキスト $x_{\text {cand }}^{j}$ における繰り返し生成の有無は考慮できないため, zlib との併用により性能改善が期待できる(式 4).
$
\begin{aligned}
& A_{f_{\theta}}(x) \\
& =\mathbb{1}\left[\frac{1}{m} \sum_{j=1}^{m} \operatorname{ROUGE}-\mathrm{N}\left(x_{\text {cand }}^{j}, x_{\text {ref }}\right) \cdot \operatorname{zlib}\left(x_{\text {cand }}^{j}\right)>\tau\right]
\end{aligned}
$
表 1 提案手法と比較手法の AUC スコア
## 3 実験
## 3.1 比較手法
SaMIA との比較に用いる既存手法を説明する. LOSS [8] は最もシンプルな MIA であり, サンプル $x$ の損失(負の対数尤度) $\mathscr{L}$ が閾値 $\tau$ より小さい場合に学習データに含まれると判定する(式 5).
$
A_{f_{\theta}}(x)=\mathbb{1}\left[\mathscr{L}\left(f_{\theta}, x\right)<\tau\right]
$
PPL/zlib [10] では,テキスト $x$ の zlib 圧縮エントロピーを活用し, $x$ のパープレキシティとの比率を検出指標とする(式 3). Lowercase [10] はLOSS を拡張した手法の 1 つで,対象テキスト $x$ を小文字化した $x_{\text {lower }}$ の損失との差を検出指標とする(式 6).
$
A_{f_{\theta}}(x)=\mathbb{1}\left[\mathscr{L}\left(f_{\theta}, x\right)-\mathscr{L}\left(f_{\theta}, x_{\text {lower }}\right)<\tau\right]
$
LOSS はテキスト $x$ の全トークンを用いて検出する一方,Min-K\% Prob [13] は $x$ の中で尤度の低い $k \%$ トークン $\operatorname{Min}-\mathrm{K} \%(x)$ のみを検出に用いる(式 7).
$
A_{f_{\theta}}(x)=\mathbb{1}\left[\frac{1}{E} \sum_{x_{i} \in \operatorname{Min}-\mathrm{K} \%(x)} \log P_{\theta}\left(x_{i} \mid x_{1: i-1}\right)>\tau\right]
$
ここで, $E=|\operatorname{Min}-\mathrm{K} \%(x)|$ は選出されたトークンの総数を表す. Min-K\% Prob のハイパーパラメータである $k$ の値は原著論文で推奨された $k=20$ とする.
## 3.2 実験設定
データセット既存研究 [13] に倣い,本稿ではべンチマークに WikiMIA ${ }^{1)}$ を用いる. MIA の性能はテキスト長に依存するため [13],異なる単語数 ${ }^{2}$ (32, 64,128,256)の WikiMIA に対して検出性能を評価する. WikiMIA は, Wikipedia から収集されたイべントページにより構成される. 2023 年以降のイベ
1) https://huggingface.co/datasets/swj0419/WikiMIA
2) WikiMIA の各事例は,スペース区切りで指定の単語数となるよう切られている.
ントを未学習データ,2017 年以前のイベントを学習済データとする,イベントページは特定の時期に関連する情報であるため, 未学習データは事前学習されていない新しい情報であることが保証される。また, Wikipedia は事前学習データの一般的な情報源であり, 学習済データは事前学習に使われたとする。
モデル提案手法および既存手法の性能を,GPTJ-6B [16], OPT-6.7B [14], Pythia-6.9B [15], LLaMA2-7B [22]を用いて評価する。これら 4 つの LLM は,事前学習データのカットオフ日が 2022 年 9 月以前であるため,WikiMIA の使用要件を満たす。
評価指標既存研究 $[12,13]$ に倣い,検出方法の有効性を真陽性率(True Positive Rate; TPR)と偽陽性率(False Positive Rate; FPR)を用いて評価する。各間値 $\tau$ における TPRと FPRを用いて ROC 曲線を描画し, ROC 曲線下の領域面積である AUC と低 FPR における TPR(TPR@10\%FPR)を評価指標とする.
実装の詳細 SaMIA(式 2)と SaMIA*zlib(式 4) には ROUGE-1 を用い,サンプル数は $m=10$ と設定した。事前学習済みモデルは HuggingFace3) で公開されているものを使用した。 トークン生成時のパラメータは全て, temperature $=1.0$, max_length $=1024$, top_k=50, top_p=1.0 に統一した.
## 3.3 実験結果
AUC の評価結果を表 1 に示す. 表の右端の Avg. には行の平均值を掲載している. SaMIA*zlib の AUC は, 256 単語の WikiMIA において全ての比較手法を上回ったが,32 単語においては性能が低かった. また, zlib は SaMIA を改善しており, サンプルの冗長性の考慮が有効であることを確認できる. 更に, Avg. では SaMIA*zlib の性能が一番高いことから,提案手法は総合的に最も性能が優れていると言える.TPR@10\%FPR の結果は付録 A の表 2 に記載しており,AUC と似た傾向を示している。これらの
図 2 ROUGE-1 vs. ROUGE-2(モデル:OPT-6.7B)
図 3 サンプル数 $m$ と SaMIA の性能 (モデル:OPT-6.7B)結果から,SaMIA は尤度や損失を用いずとも,それらを用いた検出手法を上回る,もしくは匹敵する性能を達成できることが分かる.
## 4 分析
SaMIA の性能に影響を与える要因としてグラム長,サンプル数,テキスト長の観点から分析する.
グラム長主要な結果である表 1 には,ROUGE-1 を検出指標に用いた SaMIA の性能を掲載した. 単語バイグラムの方が検出しやすくなるかを検証するため,ROUGE-2 を指標に用いた SaMIA(式 2, $\mathrm{N}=2$ )の性能を調べた. 図 2 より,ROUGE-2による検出は ROUGE-1 よりも劣る結果となり,単語ユニグラムを用いた方が良いという知見が得られた。
サンプル数表 1 では,LLM が生成した 10 サンプルを用いた SaMIA の性能を報告した. ここで, サンプル数 $m$ を変化させた際の SaMIA の性能への影響を調査する.直感的には,多くのサンプルがより堅牢な比較を提供すると考えられる。図 3 の結果は,この仮説の正当性を裏付けており,サンプル数 $m$ を増やすことで性能が改善することを示している. しかし,サンプル数が 5 を超えると,全てのテキスト長において検出性能は横ばいとなるため,推論コストを考慮しても $m=5$ が最適である.
図 4 単語数 32 の WikiMIA の ROUGE-1 分布 (OPT-6.7B)
図 5 単語数 256 の WikiMIA の ROUGE-1 分布 (OPT-6.7B)
テキスト長表 1 によると,SaMIA の性能は対象テキストの長さに依存している。 そこで,テキスト長が ROUGE-1 の検出指標(式 $2, \mathrm{~N}=1$ )に与える変化をより詳細に分析する.異なる単語数(32,256) における未学習データと学習済データの ROUGE-1 分布を図 4,5 に示す(64,128 単語における分布は付録 A の図 6, 7 に載せる). この図が示すように,長いテキストを対象とした検出では,事前学習の有無が ROUGE-1 に大きな差を生んでいる。この現象は直感的にも正しく,(1) モデルに与えるプレフィックス $x_{\text {prefix }}$ が長いとき,モデルは記憶を特定しやすくなり,(2) 参照テキスト $x_{\mathrm{ref}}$ が長い場合,正解に関する情報が増えて評価が安定すると考えられる.
## 5 おわりに
本稿では,メンバーシップ推論攻撃において尤度に依存せず,サンプリングのみを活用する手法 SaMIA を提案した。本手法を WikiMIA で評価したところ,既存手法と同等の性能を示し,特に長いテキストを対象とした検知では高性能を示した。この結果は,尤度を提供しない LLM に対しても,メンバーシップ推論が可能であることを示唆している.
今後は,短いテキストに対する SaMIA の検知性能の改善を目指したい.
## 謝辞
本研究は JSPS 科研費 19 H01118 の助成を受けたものです。
## 参考文献
[1] OpenAI. Gpt-4 technical report. ArXiv, Vol. abs/2303.08774, , 2023.
[2] Rohan Anil, Andrew M. Dai, Orhan Firat, Melvin Johnson, Dmitry Lepikhin, Alexandre Passos, Siamak Shakeri, Emanuel Taropa, Paige Bailey, Zhifeng Chen, Eric Chu, Jonathan H. Clark, Laurent El Shafey, Yanping Huang, Kathy Meier-Hellstern, Gaurav Mishra, Erica Moreira, Mark Omernick, Kevin Robinson, Sebastian Ruder, Yi Tay, Kefan Xiao, Yuanzhong Xu, Yujing Zhang, Gustavo Hernandez Abrego, Junwhan Ahn, Jacob Austin, Paul Barham, Jan Botha, James Bradbury, Siddhartha Brahma, Kevin Brooks, Michele Catasta, Yong Cheng, Colin Cherry, Christopher A. ChoquetteChoo, Aakanksha Chowdhery, Clément Crepy, Shachi Dave, Mostafa Dehghani, Sunipa Dev, Jacob Devlin, Mark Díaz, Nan Du, Ethan Dyer, Vlad Feinberg, Fangxiaoyu Feng, Vlad Fienber, Markus Freitag, Xavier Garcia, Sebastian Gehrmann, Lucas Gonzalez, Guy Gur-Ari, Steven Hand, Hadi Hashemi, Le Hou, Joshua Howland, Andrea Hu, Jeffrey Hui, Jeremy Hurwitz, Michael Isard, Abe Ittycheriah, Matthew Jagielski, Wenhao Jia, Kathleen Kenealy, Maxim Krikun, Sneha Kudugunta, Chang Lan, Katherine Lee, Benjamin Lee, Eric Li, Music Li, Wei Li, YaGuang Li, Jian Li, Hyeontaek Lim, Hanzhao Lin, Zhongtao Liu, Frederick Liu, Marcello Maggioni, Aroma Mahendru, Joshua Maynez, Vedant Misra, Maysam Moussalem, Zachary Nado, John Nham, Eric Ni, Andrew Nystrom, Alicia Parrish, Marie Pellat, Martin Polacek, Alex Polozov, Reiner Pope, Siyuan Qiao, Emily Reif, Bryan Richter, Parker Riley, Alex Castro Ros, Aurko Roy, Brennan Saeta, Rajkumar Samuel, Renee Shelby, Ambrose Slone, Daniel Smilkov, David R. So, Daniel Xuezhi Wang, Pidong Wang, Zirui Wang, Tao Wang, John Wieting, Yuhuai Wu, Kelvin Xu, Yunhan Xu, Linting Xue, Pengcheng Yin, Jiahui Yu, Qiao Zhang, Steven Zheng, Ce Zheng, Weikang Zhou, Denny Zhou, Slav Petrov, and Yonghui Wu. Palm 2 technical report, 2023.
[3] Kent Chang, Mackenzie Cramer, Sandeep Soni, and David Bamman. Speak, memory: An archaeology of books known to chatgpt/gpt-4. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023.
[4] Oscar Sainz, Jon Ander Campos, Iker García-Ferrero, Julen Etxaniz, and Eneko Agirre. Did chatgpt cheat on your test?, 2023. https: //hitz-zentroa.github.io/lm-contamination/blog/.
[5] Inbal Magar and Roy Schwartz. Data contamination: From memorization to exploitation. In Smaranda Muresan, Preslav Nakov, and Aline Villavicencio, editors, Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 157-165, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[6] Arvind Narayanan and Sayash Kapoor. Gpt-4 and professional benchmarks: the wrong answer to the wrong question, 2023. https://www. aisnakeoil. com/p/gpt-4-and-professional-benchmarks.
[7] R. Shokri, M. Stronati, C. Song, and V. Shmatikov. Membership inference attacks against machine learning models. In 2017 IEEE Symposium on Security and Privacy (SP), pp. 3-18, Los Alamitos, CA, USA, may 2017. IEEE Computer Society.
[8] Samuel Yeom, Irene Giacomelli, Matt Fredrikson, and Somesh Jha. Privacy risk in machine learning: Analyzing the connection to overfitting. In 31st IEEE Computer Security Foundations Symposium, CSF 2018, Oxford, United Kingdom, July 9-12, 2018, pp. 268-282. IEEE Computer Society, 2018
[9] Alexandre Sablayrolles, Matthijs Douze, Cordelia Schmid, Yann Ollivier, and Hervé Jégou. White-box vs black-box: Bayes optimal strategies for membership inference. In Proceedings of the 36th International Conference on Machine Learning, pp. 5558-5567, 2019.
[10] Nicholas Carlini, Florian Tramèr, Eric Wallace, Matthew Jagielski, Ariel Herbert-Voss, Katherine Lee, Adam Roberts, Tom B. Brown, Dawn Song, Úlfar Erlingsson, Alina Oprea, and Colin Raffel. Extracting training data from large language models. In Michael D. Bailey and Rachel Greenstadt, editors, 30th USENIX Security Symposium, USENIX Security 2021, August 1113, 2021, pp. 2633-2650. USENIX Association, 2021.
[11] Jiayuan Ye, Aadyaa Maddi, Sasi Kumar Murakonda, Vincent Bindschaedler, and Reza Shokri. Enhanced membership inference attacks against machine learning models. In Proceedings of the 2022 ACM SIGSAC Conference on Computer and Communications Security, pp. 3093-3106, 2022
[12] Justus Mattern, Fatemehsadat Mireshghallah, Zhijing Jin, Bernhard Schoelkopf, Mrinmaya Sachan, and Taylor Berg-Kirkpatrick. Membership inference attacks against language models via neighbourhood comparison. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Findings of the Association for Computational Linguistics: ACL 2023, pp. 11330-11343, Toronto, Canada, July 2023. Association for Computational Linguistics.
[13] Weijia Shi, Anirudh Ajith, Mengzhou Xia, Yangsibo Huang, Daogao Liu, Terra Blevins, Danqi Chen, and Luke Zettlemoyer. Detecting pretraining data Terra Blevins, Danqi Chen, and Luke Zettlemoyer. Detecting pretraining data Processing Systems (NeurIPS), 2023
[14] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. Opt: Open pre-trained transformer language models, 2022.
[15] Stella Biderman, Hailey Schoelkopf, Quentin Gregory Anthony, Herbie
Bradley, KyleO’ Brien, Eric Hallahan, Mohammad Aflah Khan, Shivanshu Purohit, USVSN Sai Prashanth, Edward Raff ほか. Pythia: A suite for analyzing large language models across training and scaling. In International Conference on Machine Learning, pp. 2397-2430. PMLR, 2023.
[16] Ben Wang and Aran Komatsuzaki. GPT-J-6B: A 6 Billion Parameter Autoregressive Language Model. https://github.com/kingoflolz/ ter Autoregressive Language Model.
[17] James Manyika and Sissie Hsiao. An overview of bard: an early experiment with generative ai, 2023 .
[18] Anthropic. Model card and evaluations for claude models, 2023
19] Jie Huang, Hanyin Shao, and Kevin Chen-Chuan Chang. Are large pre-trained language models leaking your personal information? In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 2038-2047, Abu Dhabi, United Arab Emirates, December 2022. Association for Computational Linguistics.
[20] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[21] Jean loup Gailly and Mark Adler. zlib compression library, 1995
[22] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoging Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, and Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models, 2023.
## A 更なる実験結果
提案手法と比較手法の TPR@10\%FPR による評価結果を表 2 に示す.表の右端のAvg. には行の平均値を掲載している.
表 2 提案手法と比較手法の TPR @ $10 \%$ FPR
WikiMIA の 64, 128 単語のデータセットにおける,未学習データと学習済データの ROUGE-1 分布を図 6, 7 に示す.
図 6 単語数 64 の WikiMIA の ROUGE-1 分布(OPT-6.7B)図 7 単語数 128 の WikiMIA の ROUGE-1 分布(OPT-6.7B)
## B SaMIA の詳細
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-4.pdf | # 大規模言語モデルにおける評価バイアスの尤度に基づく緩和
大井聖也 ${ }^{1}$ 金子 正弘 ${ }^{2,1}$ 小池 隆斗 ${ }^{1}$ Mengsay Loem ${ }^{1}$ 岡崎 直観 ${ }^{1}$
1 東京工業大学 ${ }^{2}$ MBZUAI
\{masanari.ohi@nlp., ryuto.koike@nlp., mengsay.loem@nlp., okazaki@\}c.titech.ac.jp
masahiro.kaneko@mbzuai.ac.ae
## 概要
大規模言語モデル (Large Language Model; LLM) は言語生成タスクの評価器として用いられている。ところが、ある文章の意味を変えずに語順や構造を変更した文章を作ると、LLM が計算する尤度が大きく変化することがある。そのため、LLM 評価器には、尤度が低い文章を不当に低く、尤度が高い文章を不当に高く評価する尤度バイアスが存在すると考えられる。本研究では、尤度バイアスが LLM 評価器の性能を低下させることを明らかにし、Few-shot によるバイアス緩和手法を提案する。実験では、複数の LLM が data-to-text タスクと文法誤り訂正タスクで尤度バイアスを持つ可能性を示し、その緩和に成功した。
## 1 はじめに
LLM は優れた言語理解能力と文章生成能力を示し、最近は文生成タスクの自動評価手法としても活用されている $[1,2,3,4]$ 。例えば、評価対象の文章の尤度を LLM に計算させ、評価スコアとして使用する方法 $[2,5]$ や、LLM に文章の評価スコアを直接出力させる方法 [1,3] が提案されている。BLEU [6] や ROUGE [7] などの従来の自動評価手法と比べ、LLM による自動評価は多くのタスクで人間の評価とより高い相関を示すことが報告されている。LLM の学習は膨大な事前学習データ $[8,9]$ と指示学習デー 夕 $[10,11]$ の尤度最大化であり、文章生成も尤度に基づいている。ゆえに、尤度を直接的に評価スコアとする方法だけではなく、評価スコアを生成させる方法においても、評価対象の文章の尤度が評価結果に影響を与えると考えられる。
ところが、LLMが計算する尤度は文章の流暢性や文法性、意味などの良し悪しを捉えているとは限らない。例えば、ある文章の語順や構造を変更して言い換えると、LLM の尤度が変動することが報告さ
図 1: 尤度バイアスの例。人間の採点であれば同じスコアをつけられるべき出力のうち、尤度の低い出力 (上側) が尤度の高い出力(下側)よりも不当に低く評価されていることを表す。
れている [12]。この場合、文章の意味に関する評価を行う際に、尤度の変動が LLM の評価結果に悪影響を及ぼしうる。言い換えると、LLM の尤度と文章の良し悪しのずれが、さまざまな評価項目で評価バイアスを引き起こしている可能性がある。本研究では、LLMが文章の評価スコアを出力する際、尤度の低い文章を(人間の評価よりも)不当に低く評価し、尤度の高い文章を不当に高く評価するという評価バイアスの存在を仮定し、これを尤度バイアスと呼ぶ。尤度バイアスの例を図 1 に示す。この図ではデータから文を生成するタスク(data-to-text)において、人間の採点であれば同スコアになる出力のうち、尤度の低い出力(上側)が尤度の高い出力(下側)よりも不当に低く評価されていることを表す。
この問題に対処するため、我々は尤度バイアスを (1) 定量的に測定し、(2) 緩和する手法を提案する。本研究は LLM 評価器における評価時のバイアスを緩和する初めての試みである。まず、LLM の尤度と、LLM と人手評価のスコアの差の相関に着目し、尤度バイアスの定量的な測定を行う。実験の結果、GPT-3.5 と Llama2 13B [13] の 2 つの LLM が data-to-text と文法誤り訂正タスク (GEC) の2つのタスクにおいて尤度バイアスを持つ可能性を示した。
次に、訓練データから尤度バイアスの強い事例(タスクの入出力のペア)を特定し、それらの事例に人手評価スコアを付与し、Few-shot 事例として LLM 評価器に与えることで、評価時の尤度バイアスを緩和する。提案手法により、ほとんどのモデル・タスクにおいて LLM の尤度バイアスが緩和され、評価性能(人手評価スコアとの順位相関係数)も向上することが分かった。
## 2 提案手法
先行研究 $[1,4]$ に倣い、本研究では LLM に文章の評価を指示するプロンプトを与え、評価スコアを計算する。また、Liu ら [1]に倣い、LLM に評価スコアを直接出力させるのではなく、評価スコアの候補値 (例: $\{1, \ldots, n\} )$ を予測させ、その尤度からスコアの期待値を計算し、最終的な評価スコアとする (これを Score $\mathrm{m}_{\mathrm{m}}$ と書く)。先行研究では、タスクの説明・評価項目・評価対象文章の 3 つでプロンプトを構成していたが、我々はこれに加えて Few-shot 事例をモデルに与えることで出力を安定化させ、より正確に尤度バイアスを測定・緩和することを目指す1)。
## 2.1 尤度バイアスの測定
本研究では、人間の評価と比較して LLM が尤度の低い文章を不当に低く評価し、尤度の高い文章を不当に高く評価するという評価のバイアスを尤度バイアスと呼ぶ。まず、その定量的な測定方法を提案する。 $t_{i}$ を大力文章、 $t_{o}$ を出力文章とし、これらをまとめて評価対象の事例 $t=\left(t_{i}, t_{o}\right)$ と書く。 $d$ をタスクの説明、 $\theta$ をモデルのパラメータ、 $P$ をデルによる尤度とすると、LLM の尤度による指標 LS (likelihood score) は次式で計算される。
$
\operatorname{LS}(t)=\log P\left(t_{o} \mid t_{i}, d ; \theta\right)
$
次に、LLM がどれだけ不当な評価をしているかを表す指標 US (unfairness score)として、LLMによる評価スコア $\left(\right.$ Score $\left._{\mathrm{m}}\right)$ と人手評価スコア $\left(\right.$ Score $\left._{\mathrm{h}}\right)$ の差を次式で計算する2)。
$
\mathrm{US}(t)=\operatorname{Score}_{\mathrm{m}}(t ; \theta)-\operatorname{Score}_{\mathrm{h}}(t)
$
LLM による評価スコア Score $_{\mathrm{m}}$ を計算するときは、訓練データからランダムに選んだ Few-shot 事例をプロンプトに含める。
1) Score $_{\mathrm{m}}$ を計算するために用いた実際のプロンプトや計算式、Few-shot の事例数などを付録 A に記載する。
2) LLM と人手によるスコアの値域が異なる場合を考慮し、 Score $_{\mathrm{m}}$ と Score $_{\mathrm{h}}$ は同じ値域になるように正規化する。
図 2: 仮想の評価器における尤度バイアスを可視化した図。A はバイアスがある、B はバイアスがなく高性能、C はバイアスがなく低性能な評価器を表す。
LS、US を用いて LLM の持つ尤度バイアスの強さを示す指標であるBiasScoreを計算する。 BiasScore は、事例の集合であるデータセット $D=\left.\{t^{(1)}, t^{(2)}, \ldots, t^{(n)}\right.\}$ 全体における LS と US のスピアマンの順位相関係数 $\rho$ として計算する。
$
\begin{aligned}
\mathrm{LS}_{\mathrm{D}}= & {\left[\mathrm{LS}\left(t^{(1)}\right), \operatorname{LS}\left(t^{(2)}\right), \ldots, \operatorname{LS}\left(t^{(n)}\right)\right] } \\
\mathrm{US}_{\mathrm{D}}= & {\left[\mathrm{US}\left(t^{(1)}\right), \mathrm{US}\left(t^{(2)}\right), \ldots, \operatorname{US}\left(t^{(n)}\right)\right] } \\
& \text { BiasScore }=\rho\left(\mathrm{LS}_{\mathrm{D}}, \mathrm{US}_{\mathrm{D}}\right)
\end{aligned}
$
BiasScore は $[-1,1]$ の範囲を取り、 1 は最も強いバイアスを表し、0はバイアスがないことを表す。
## 2.2 尤度バイアスの緩和
図 2 に複数の仮想の評価器による尤度バイアスを可視化した散布図を示す。横軸は LS (式 1)、縦軸は US (式 2)、点は評価事例、点の回帰直線の傾きが BiasScore を表す。各図は次のように解釈される。
・A の散布図は尤度バイアスを持つ評価器を表す。評価器は尤度の高い事例に不当に高いスコアを与えており(右上部分)、尤度の低い事例に不当に低いスコアを与えている(左下部分)。 バイアスの緩和前の LLM 評価器はこの状態であると想定する。
・B の散布図は尤度バイアスを持たない評価器を表す。US が 0 に近いため、評価性能は高いと考えられる。
・C の散布図も尤度バイアスを持たない評価器を表すが、US の値がランダムに分布しているため、評価性能は低いと考えられる。
提案手法による尤度バイアスの緩和では、バイアスのある状況 (A) から、評価性能が高くバイアスのない状況 (B) に変化させることを目指す。その際、評価性能が低くバイアスのない状況 (C) にならないように、バイアスが強い事例(A の図の右上・左下) を特定し、その評価を集中的に是正する。そのため、事例 $t$ のバイアスの強さを示す指標として、RS
を導入する。
$
\operatorname{RS}(t)=\left|\mathrm{LS}^{*}(t)+\mathrm{US}^{*}(t)\right|
$
ここで、 $\mathrm{LS}^{*}$ と US* はそれぞれ、データセット $D$ に対して平均值が 0 、値域が $[-1,1]$ になるように LS と US を正規化したものである。 $\operatorname{RS}(t)$ は事例 $t$ が図 2 の A において右上か左下に近づくほど大きな值を取る。評価バイアスの軽減のため、訓練データから $\mathrm{RS}(t)$ が大きな事例、つまりバイアスの強い事例を抽出し、人手評価のスコアを付与したうえで Few-shot 事例として用いることで、評価における尤度バイアスを緩和する。
## 3 実験結果
## 3.1 使用したタスク・データ
実験では、data-to-text と GECの2つのタスクにおける尤度バイアスの測定・緩和を行う。data-to-text タスクでは、WebNLG+ [14]をデータセットとして用いた。2846 個の英語の各事例に対して、text structure, relevance, fluency, correctness, data coverage $の$ 5 つの評価項目に関する人手評価スコア Score $_{\mathrm{h}}$ が付与されている。GECでは、TMU-GFM-Dataset [15] をデータセットとして用いた。4221 個の英語の各事例に対して、grammar, fluency の 2 つの評価項目に関して人手評価スコア $\mathrm{Score}_{\mathrm{h}}$ が付与されている3)。
これらのデータはそれぞれ、4:1 の割合で訓練・評価データに分割した。また、タスク全体での傾向を調べるために、すべての評価項目のマイクロ平均を新たな評価項目 total として導入した。
## 3.2 使用した LLM
実験には、OpenAI 社が API として提供する GPT-3.54)と、オンプレミスで動作する Llama2 13B (L-13B) [13]をLLM として用いた。ただし、GPT-3.5 はトークンの尤度を出力しないため、代わりに Llama2 13B で尤度を計算する。まず、これらの LLM の評価器としての性能を確かめるために、人手と LLM による評価スコアのスピアマンの順位相関係数を計算した。結果を表 1,2 の「評価性能」の「緩和前」列にそれぞれ示す。全体的な傾向として、
3)データセットやその評価項目の説明を付録 B に示す。 GEC のデータセットでは 3 つ目の評価項目として meaning が存在するが、データセットを作成した研究 [15] で meaning における結果が全体の評価にほとんど寄与しないことが示されているため、本実験からは除外した。
4) gpt-3.5-turbo-instructを API 呼び出しに用いた。 data-to-text では GPT-3.5 が Llama2 13B よりも高い性能を示し、GEC ではどちらのモデルも同程度の性能を示した。
## 3.3 尤度バイアスの測定
2.1 節で述べた手法を用い、data-to-text と GEC の評価データにおける尤度バイアスを測定した。
data-to-text での結果表 1 の「BiasScore」の「緩和前」列における数值はほとんどのモデル・評価項目で 0.20 を超える結果を示している。BiasScore は相関係数であり、 0.20 は弱相関を表すため、この結果は尤度バイアスの存在を示唆していると言える。評価項目 total においては GPT-3.5 (0.38) が Llama-2 13B (0.17) よりも大きな BiasScore を示しており、他の評価項目においても同じ傾向が観察される。また、評価項目 relevance がどちらのモデルにおいても全ての評価項目の中で最も大きな値を示した。
GEC での結果表 2 の「BiasScore」・「緩和前」列における数値はすべてのモデル・評価項目で 0.20 を超える結果になっており、data-to-text と同様に尤度バイアスの存在を示唆している。また、評価項目 total においても同様に GPT-3.5 (0.43) が Llama2 13B (0.21)よりも大きな BiasScore を示しており、他の評価項目についても同じ傾向が観察される。
評価項目ごとの尤度バイアスの比較 data-to-text の評価項目ごとの尤度バイアス (表 1 の「BiasScore」・「緩和前」列)に着目すると、どちらのモデルにおいても fluency と text structure が比較的小さな BiasScore を示している。これらの項目は、入力によるタスク固有の制約は考慮せず、生成された文章に内在する自然さや文構造のような特性のみに基づいて評価する。そして、どちらのモデルにおいても relevance と data coverage は、BiasScore が小さい内在的評価の項目とは対照的に大きな BiasScore を示している。これらの項目は、生成された文章に対して外在する入力との関連性や情報の有無などのタスク固有の制約を用いて評価する。これらのことから、内在的評価の項目は、外在的評価の項目よりも小さい尤度バイアスを持つといえる。出力の尤もらしさは内在的な特性に強く依存することを鑑みると、文章の尤度と内在的評価による文章の優劣には正の相関があると予想される。よって、内在的評価においては、LLM 評価器が尤度に影響を受けていることが、過小または過大評価のように必ずしも悪い結果につながらないと考えられる。一方で、評価に寄与する特性が異
表 1: data-to-text での尤度バイアス緩和前後の BiasScore と評価性能。緩和後の值における太字はバイアスの緩和が狙い通りに作用したことを、*はバイアス緩和前後での並べ替え検定による有意な差 $(p<0.05)$ を、 †は有意な傾向の差 $(p<0.06)$ を表す。
表 2: GEC での尤度バイアス緩和前後の BiasScore と評価性能。太字、*、†は表 1 と同じ意味で使用した。
なるため、外在的評価では尤度からの影響が LLM 評価器に悪影響を及ぼしていると考えられる。
## 3.4 尤度バイアスの緩和
尤度バイアス緩和のため、2.2 節で説明した手法を用いて訓練データからバイアスを持つ事例を 8 つ取得し、Few-shot 事例として用いた。表 1,2の「緩和後」列にバイアス緩和後の BiasScore と評価性能を示す。太字はバイアスの緩和が狙い通りに作用した(BiasScore の絶対値が減少した・評価性能が向上した)ことを表す。また、 $R=100000, \alpha=0.05$ として並べ替え検定を行い、バイアス緩和前後で有意な差 $(p<0.05)$ が確認されたものを*、有意な傾向の差 $(p<0.06)$ が確認されたものを†で表した。
data-to-text での結果表 1 の「BiasScore」と「評価性能 $\rho\lrcorner の 「$ 緩和後」列における数値から、提案手法によってほとんどのモデル・評価項目で BiasScore の絶対値が減少し、同時に評価性能が向上したことがわかる。GPT-3.5 では text structure (0.13), relevance (-0.12), data coverage (-0.08) において、 Llama2 13B では text structure (-0.15), fluency (-0.20), correctness (-0.20) において BiasScore の絶対値が有意に減少している。同時に、GPT-3.5 では fluency $(+0.14)$, total (+0.10) において評価性能が有意に向上している。また、GPT-3.5 で text structure (+0.07), data coverage (+0.10) において、Llama2 13B で fluency (+0.19)において評価性能の向上に有意な傾向が確認された。したがって、モデル・タスク全体を通し
て尤度バイアスの緩和が狙い通り成功し、それによって評価性能が向上していることが確認できた。
GEC での結果表 2 の「BiasScore」と「評価性能 $\rho\lrcorner の 「$ 緩和後」列における数値から、提案手法によってほとんどのモデル・評価項目で BiasScore の絶対値が減少し、同時に評価性能が向上したことがわかる。有意な傾向のバイアス緩和が確認されたのは GPT-3.5 の grammar (-0.09) のみだったが、少なくとも提案手法がバイアスの緩和を促進し、評価性能を向上させる影響を与えたと考える。
以上の結果から、尤度バイアスを緩和する提案手法が data-to-text と GEC における LLM 評価器の尤度バイアスを緩和し、同時に評価性能を向上させることに成功したと考える。
## 4 おわりに
本研究では LLM が尤度の低い文章を不当に低く、尤度の高い文章を不当に高く評価する傾向を尤度バイアスとして定義し、定量化する方法を提案した。 また、我々はバイアスの強い事例を特定し、Few-shot 事例として用いることで尤度バイアスを緩和する方法を提案した。実験の結果、data-to-text、GEC の 2 つのタスクにおいて複数の LLM が龙度バイアスを持つ可能性を示した。さらに、尤度バイアスを緩和し評価性能を向上することに成功した。今後は、他モデルでの尤度バイアスの測定や、バイアスが強い事例を抽出する別手法の検討、ファインチューニングを用いるバイアスの緩和などに取り組みたい。
## 謝辞
本研究成果は、国立研究開発法人情報通信研究機
構(NICT)の委託研究(22501)により得られたものです。また、本研究は JSPS 科研費 19H01118 の助成を受けました。論文執筆にあたっては、ケンブリッジ大学の Simone Teufel 先生から助言をいただきました。
## 参考文献
[1] Yang Liu, Dan Iter, Yichong Xu, Shuohang Wang, Ruochen Xu, and Chenguang Zhu. G-eval: Nlg evaluation using gpt-4 with better human alignment, 2023.
[2] Jinlan Fu, See-Kiong Ng, Zhengbao Jiang, and Pengfei Liu. Gptscore: Evaluate as you desire, 2023.
[3] Tom Kocmi and Christian Federmann. Large language models are state-of-the-art evaluators of translation quality. In Mary Nurminen, Judith Brenner, Maarit Koponen, Sirkku Latomaa, Mikhail Mikhailov, Frederike Schierl, Tharindu Ranasinghe, Eva Vanmassenhove, Sergi Alvarez Vidal, Nora Aranberri, Mara Nunziatini, Carla Parra Escartín, Mikel Forcada, Maja Popovic, Carolina Scarton, and Helena Moniz, editors, Proceedings of the 24th Annual Conference of the European Association for Machine Translation, pp. 193-203, Tampere, Finland, June 2023. European Association for Machine Translation.
[4] Cheng-Han Chiang and Hung-yi Lee. Can large language models be an alternative to human evaluations? In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 15607-15631, Toronto, Canada, July 2023. Association for Computational Linguistics.
[5] Weizhe Yuan, Graham Neubig, and Pengfei Liu. Bartscore: Evaluating generated text as text generation. In M. Ranzato, A. Beygelzimer, Y. Dauphin, P.S. Liang, and J. Wortman Vaughan, editors, Advances in Neural Information Processing Systems, Vol. 34, pp. 27263-27277. Curran Associates, Inc., 2021.
[6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Pierre Isabelle, Eugene Charniak, and Dekang Lin, editors, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[7] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[8] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[9] OpenAI. Gpt-4 technical report, 2023.
[10] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned language models are zero-shot learners. In International Conference on Learning Representations, 2022.
[11] Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul F Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback. In S. Koyejo, S. Mohamed, A. Agarwal, D. Belgrave, K. Cho, and A. Oh, editors, Advances in Neural Information Processing Systems, Vol. 35, pp. 27730-27744. Curran Associates, Inc., 2022.
[12] Tatsuki Kuribayashi, Takumi Ito, Jun Suzuki, and Kentaro Inui. Language models as an alternative evaluator of word order hypotheses: A case study in Japanese. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 488-504, Online, July 2020. Association for Computational Linguistics.
[13] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, and Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models, 2023.
[14] Thiago Castro Ferreira, Claire Gardent, Nikolai Ilinykh, Chris van der Lee, Simon Mille, Diego Moussallem, and Anastasia Shimorina. The 2020 bilingual, bi-directional WebNLG+ shared task: Overview and evaluation results (WebNLG+ 2020). In Thiago Castro Ferreira, Claire Gardent, Nikolai Ilinykh, Chris van der Lee, Simon Mille, Diego Moussallem, and Anastasia Shimorina, editors, Proceedings of the 3rd International Workshop on Natural Language Generation from the Semantic Web (WebNLG+), pp. 55-76, Dublin, Ireland (Virtual), 12 2020. Association for Computational Linguistics.
[15] Ryoma Yoshimura, Masahiro Kaneko, Tomoyuki Kajiwara, and Mamoru Komachi. SOME: Reference-less sub-metrics optimized for manual evaluations of grammatical error correction. In Donia Scott, Nuria Bel, and Chengqing Zong, editors, Proceedings of the 28th International Conference on Computational Linguistics, pp. 6516-6522, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics.
## A LLM 評価器の設定
尤度の計算式 1 に示す通り、我々はモデルの文章に対する尤度を、タスク説明 $d$ 、タスク入力 $t_{i}$ で条件付けしたタスク出力 $t_{o}$ の対数尤度として計算する。単純に条件付けを行わず $\log P\left(t_{o} ; \theta\right)$ を計算するよりも、条件付けを行うことでタスクと入力に関する情報を考慮した尤度が得られることが期待できる。タスク説明は以下の文章を用いた。
- data-to-text: Please generate a description of the following xml data.
- GEC: Please modify the following English text to make it grammatically correct.
Score $_{\mathrm{m}}$ の計算方法先行研究 $[1,4]$ に倣い、我々はタスク説明・評価項目で構成されるプロンプト $I$ と評価対象の事例 $t$ を LLM に与えることで、LLM による評価スコア Score $_{\mathrm{m}}$ を計算する。我々はこれに加えて Few-shot 事例 $F$ を LLM に与えることでモデルの出力を安定させることを狙う。 $F$ は、バイアス測定の際はランダムに、バイアス緩和の際はバイアスの強い事例を訓練データから 8 つ抽出して用いる。また、先行研究 [1] に倣い、LLM がスコアを出力する確率を用いてスコアの期待値を計算し、それを Score $_{\mathrm{m}}$ として用いる。LLM に直接スコアを出力させる代わりにスコアの期待値を計算することで、 スコアが 1 つに集中せず、より詳細な值が得られることが期待できる。スコアの候補を $\{1,2, \ldots, n\}$ 、スコア $i$ をLLM が出力する確率を $Q(i \mid t, F, I ; \theta)$ とすると、 Score $_{\mathrm{m}}$ は以下のように計算される。
$
\operatorname{Score}_{\mathrm{m}}(t ; \theta)=\frac{\sum_{i=1}^{n} i \times Q(i \mid t, F, I ; \theta)}{\sum_{j=1}^{n} Q(j \mid t, F, I ; \theta)}
$
また、タスク説明と評価項目を含んだプロンプトの例を以下に示す。
data-to-text で correctness を評価するプロンプト
You will be given an xml data and an English sentence that represents $\mathrm{xml}$ data. Your task is to rate the sentence that represents xml data on one metric. Please make sure you read and understand these instructions carefully. Please keep this document open while reviewing, and refer to it as needed.
Evaluation Criteria: Correctness: (1-5) - does the text describe predicates with correct objects and does it introduce the subject correctly? 1 is the lowest score, 5 is the highest.
## GEC で fluency を評価するプロンプト
You will be given an English sentence that may have grammatical errors and a sentence that is the corrected version of the sentence. Your task is to rate the corrected sentence on one metric. Please make sure you read and understand these instructions carefully. Please keep this document open while reviewing, and refer to it as needed.
Evaluation Criteria: Fluency: (0-4) - How natural the sentence sounds for native speakers; 4: Extremely natural, 3: Somewhat natural, 2: Somewhat unnatural, and 1: Extremely unnatural, and 0: Other.
## B データセット
data-to-text data-to-text では、WebNLG+ [14] (CC BY-NC-SA 4.0) から人手評価スコアが付与されている事例を抜き出し、データセットとして用いた。 2846 個の英語の各事例に対して、以下の 5 つの評価項目における人手評価スコア Score $\mathrm{h}_{\mathrm{h}}$ が 0 から 100 までの 1 点刻みで付与されている。
- text structure: 出力が文法的に正しく構成されているかどうか
- relevance: 出力が入力データに基づいているかどうか
・fluency: 出力が自然な文章かどうか
・ correctness: 出力が大力データを正しく説明しているか
・ data coverage: 出力が入力データの情報を全て含んでいるか
GEC GEC では、TMU-GFM-Dataset [15] (CC BY 4.0) をデータセットとして用いた。 4221 個の英語の各事例に対して、以下の 3 つの評価項目における人手評価スコア $\mathrm{Score}_{\mathrm{h}}$ が 0 から 4 までの 1 点刻みで付与されている。
- grammar: 出力が文法的に正しいか
$\cdot$ fluency: 出力が自然な文章かどうか
・ meaning: 出力が入力と同じ意味を持つか
3.1 節の脚注で述べたように、データセットを作成した研究 [15] で meaning はタスク全体の評価スコアにほとんど寄与していないことが明らかにされているので、本実験からは除外した。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-5.pdf | # 事前学習済み Llama2 モデルを活用した言語間転移日英モデルの作成
佐藤諒 麻場直喜 野崎雄太 中島大 近藤宏 川村晋太郎
株式会社リコー デジタル戦略部 デジタル技術開発センター 言語AI 開発室
\{ryo. sato4, naoki. asaba, yuta. nozaki1, dai. nakashima, hiroshi.xx. kondoh,
shintaro. kawamura\}@jp. ricoh.com
## 概要
近年英語を中心に事前学習済み大規模言語モデルが多く公開されてきた。本研究ではそれらのモデルの中でも、ここ最近で高スコアを出した Meta 社の Llama2 13B Chat モデルを再利用し、できるだけ性能の高い日本語モデルを作成することを試みる。特に言語間転移、カリキュラムラーニングの知見を投入し、なるべく事前学習の量を減らした継続学習を行い、日本語を優先した日英モデルの作成の検証結果を報告する。
## 1 はじめに
近年中程度の大規模言語モデル ( $10 \mathrm{~B}$ 前後) が多く作成されオープンなモデルとして公開されている。一方、日本語では学習データ、学習環境の制限もあり、性能の高い大規模モデルを作るのは以前困難な課題である。そのため、既にある性能の高い英語モデルを再利用し、日本語の継続学習をすることは十分に価値がある。
今回我々も可能な限りオリジナルモデルのアーキテクチャを変えずに既存英語モデルで性能の高いものを利用し、日本語モデルとしての性能の高いモデルへ変化させる試みを行う。本研究では英語データが日本語データよりも多く公開されている状況に合わせて、最初 $3: 1$ の割合で英語: 日本語データで学習し、その後 $1: 3$ の割合で学習する転移学習を主とする効果を確認する。また学習の成功率を上げるために良質なデータから広範なデータへといった学習順序も含めて計画し、カリキュラムラーニングの要素ありで学習を進める。この二つの効果を確かめるために設定を理想形から外したモデルの作成、比較も行う。すなわち、両言語のデータを同比率で訓練した場合と割合を変えた場合の比較実験、データ順序を考慮する場合としない場合との比較実験、元々
の英語モデルの重みを再活用する場合としない場合の比較実験の結果を公開する。
## 2 セットアップ
## 2.1 スタートモデルの準備
継続学習をスタートするにあたって、まずは学習開始モデルである既存の Llama2(Meta 社 Llama 2 13B Chat [1])モデルを理解することが必要である。素の Llama2 モデルは英語を中心に学習されており、英語 $90 \%$ に対して日本語はわずか $0.1 \%$ である [2]。Tokenizer についてもそれを受けており、英語語彙がほとんどを占めている。実際に計測してみると、800 語程度(CJK, HIRAGANA, KATAKANA の計)であり、全体の 32000 語彙と比べると少量である。このままで継続学習すると、日本語の文章分解能自体が下がり、学習効率が低下する可能性が高い。そこで tokenizer の改良にも取り組む。
最初、日英両言語に対応できる tokenizer を作るために、日英で wikipedia コーパスを用いて学習する。手法は SentencePiece[3]で、BPE 構築行い作成する。この学習により、(LATINを含む)英語が 13841 語彙、日本語(CJK, HIRAGANA,
KATAKANA)が 17033 語彙の結果になった。ここで語彙数合計数が 32000 に満たないのはその他の文字を含むためである。ここで文章分解能(Length per Token)を計算すると、32000 語彙全て日本語語彙の場合と比べて、 $84.88 \%$ の長さであり、 32000 語彙全て英語語彙の場合と比べると $88.92 \%$ の長さであり、同じ文章に対しての token 分解数は微増の結果となった。これは tokenizer の語彙数と文章分解能の関係が $\log$ で近似できるからである[4]。この日英対応の tokenizer を本体の重みと結合する。
Tokenizer は学習をし直したことにより、元の tokenizer と一致する語彙と、一致しない語彙を持つ。一致する語彙に関しては embedding の重みと合
うように語彙 ID の順番を合わせる(並び替える)。 また、一致しない語彙に関しては ID を合わせないで適当な embedding の重みに結合する。こうすることでなるべく大量の英語データで学習された
Llama2 モデルの重みを再活用することができる。 ここでは詳しく触れられなかったが、他の tokenizer と embedding の結合方法は[5]で触れる。
## 2.2 学習データの準備
英語から日本語に強いモデルに継続学習で改造するために、コーパスは日英どちらも用意する。しかしながら、オープンのデータでは日本語データよりも英語データのほうが多いという事情があるため、日本語データに合わせて必要な英語データの数を決める。バイリンガルモデルを学習する際には主言
図 1 各実験モデルのデータ比率
(0) or (2)
(3)
語:サブ言語のデータ比率
を2:1 で学習すると良いという先行研究がある[4]。今回は日本語データが不足している背景と、より緩急を付けた割合で学習して違いを見るために敢えて 3:1の割合で学習を行う。日本語データで用いるのは公開データの Wiki(0.7B token), C100(12.5B token), OSCAR(21.0B token)である。ここで B は 10 億の略である。このとき、データの品質は Wiki, C100, OSCAR の順で低下していきよりデータ量の多い、広範なデータとなる。なるべく品質の高いデータから学習したほうがよいカリキュラムラーニング[6] の文脈ではこの順番で行う。一方で英語データのほうでは比較的品質の高い Wiki+Book のデータを一貫して用意し、日本語とトータルで同量分確保する。
## 2.3 比較学習モデル設定
これまで述べてきたそれぞれの観点で比較が可能なように 4 つのモデルを作成して検討する(図1)。実験()番のモデル:
・事前学習済夕の Llama 2 13B Chat モデルの重みを利用する。Tokenizer は 2.1 節で説明した通りの設定とし、他は元の Llama2 のアーキテクチャをそのまま利用する。
- 英: 日 $=3: 1$ のデータ割合で最初学習し、その後、英:日=1:3 のデータ割合で学習する。こうすることで最初に英語の出力本位だったのが、徐々に日本語本位になることが予想され、また英日データが緩急を付けた割合で学習が進むことから英語で獲得した知識の忘却を防ぎつつ、英語から日本語に強いモデルへの転移を期待できる。
・日本語デー夕は前半にwiki, CC100, OSCAR の順で学習するというカリキュラムラーニングの文脈でいう品質の高い順に相当する。また後半は逆に OSCAR, CC100, wiki の順で学習し、最後のデータに出力が引きずられやすいことを考慮して、品質の高いwiki データで締めくくる。以上の三点を抑える。実験(1)番のモデル:
比較用に(1)の設定の中で英: 日 $=3: 1 \rightarrow 1: 3$ の割合で学習するところを $1: 1$ で学習するように変える。
(言語間の特性を無視する場合)
実験(2)番のモデル:
()の設定の中で Llama 2 13B Chat モデルの重みを利用せずにスクラッチから学習をスタートする。
(継続学習をしない場合)
実験(3)番のモデル:
()の設定の中で wiki, CC100, OSCAR の順番にせず、 シャッフルして学習する。
(カリキュラムラーニングを無視する。)
これらの 4 つのモデルを比較し、特に学習結果に効く方法を確認し、また一部で途中のデータ区切りごとにチェックポイントの保存を行ったため、チェツクポイントごとの評価を行うことで、言語間転移の様子を観測できると期待できる。
## 2.4 学習環境と詳細設定
本実験の学習環境は Amazon EC2 Trn1 インスタンス (trn1.32xlarge) 64 ノードを使用した。学習フレー ムワークは AWS Neuron Reference for NeMo Megatron であり、Llama 2-13b の学習コードサンプルをべー スに改造し、本実験の継続学習、カリキュラムラー ニングが可能な状態にして使用した。AWS Neuron SDK のバージョンは 2.14 である。ハイパーパラメ一タとして、バッチサイズは Llama 2 [2] と同様に 4M トークンであり、学習率は Loss が比較的安定しているラインの $8.0 \times 10-5$ にした. カリキュラム学習における学習データのつなぎ時には学習率ウォームアップを実施して学習の安定化を図った。
## 3 実験結果と考察
## 3.1 各実験のモデル精度評価
2 節で行った各学習モデルに対して下流タスクの性能評価を行った。性能評価に関しては公開評価デ ータセットとベンチマークツールを用いた自動評価を行った。具体的には日本語版は stabilityAI 社の $1 \mathrm{~m}-$ evaluation-harness [7]、英語版は EleutherAI 社の $1 \mathrm{~m}$ evaluation-harness [8]を用いた。
lm-evaluation-harness の設定はfew_shot 数を一貫して 3 に固定して行った。英語の $1 \mathrm{~m}$-evaluation-harness
について行う。これらの推論タスクの結果を見て、学習が進んだとしても英語での推論能力が残存するか確認する。一方、日本語の $1 \mathrm{~m}$-evaluation-harness は JCommonsenseQA, JNLI, MARC-ja, JSQuAD, Jacket_V2, MGSM, JCoLA, JAQuAD という複数の夕スクについて行う。それぞれのタスクの設定は表 1 に記載した。
実験() (3)のモデル対して評価スコアの平均を計算した結果が表 2 である。表 $1 \mathrm{~lm}$-evaluation-harness (日) でのタスク設定
表 $21 \mathrm{~lm}$-evaluation-harness 英日ベンチマーク結果
結果的に最も精度が良くなるようセットアップした実験(ののモデルが良いスコアを出した。またモデルの重みにおいてスクラッチから学習が開始されている実験(2)のモデルに関しては英語で十分に事前学習された Llama2 の性能を活用できない手法であるため、他の実験モデルと比べ、大きく精度を落とした。 またこれは見方を変えると、圧倒的に英語事前学習の多い元の Llama2 モデルの重みを再利用することで、少量の数十 B 程度の継続学習で高英語性能から高日本語性能への言語間転移をしたということができる。
わずかな差であるが、実験(1)との比較により、前半に英語の割合を多くして学習し、後半で日本語を多く学習したほうが日英を均等に学習するよりも効率的に英語の知識転移を行えることが分かった。また、実験(3)との比較により、日本語だけでも高品質なデータから学習することは精度の改善に寄与することが分かった。これは日本語に関して、元の Llama2 モデルでは性能が高くないことから、新たに継続学習で入る日本語に対応するために品質に拘ったデータから加える必要があることを示唆している。
さらに英語のスコアを見ると、こちらも日本語同様に実験のの結果が最も良いスコアを出した。それだけではなく、実験(1)、実験(3)のスコア順も変化していない。2.1 節で説明した Tokenizer の重み利用の方法より、英語主体の元の Llama2 の embedding か
ら始まる重みを活用出来てはいるが、一部の重みはそうでないため、今回の継続学習で英語部も多少再学習が始まっていることになる。このときに、英語データの学習総量は実験(1)、実験(3)で変わらないが、日本語データの品質順に影響を受けて英語推論能力が実験(1)と実験(3)で変化する言語間波及が起きていると考えられる。
## 3.2 チェックポイントにおける評価
3.1 節では各実験の大きな単位で結果を評価したが、日本語の性能がどう変化しているか見るため、途中チェックポイントでも同様に精度を評価する。 $1 \mathrm{~m}$-evaluation-harness $の$ 中でも特に知識獲得+読解力を調べるため JCommonsenseQA, JSQuAD, Jacket_V2, JAQuADのタスクを測定した。タスク設定は表 1 と同様である。平均スコアで比較した結果が図 2 である。横軸は学習データの切り替え時の刻みであり、学習 step 数ではない。具体的には実験 (1)のデータ区分をもとに決めており、前半日本語 wiki, CC100, OSCAR データの学習終わりをそれぞれ $1 / 6,1 / 3,1 / 2$ とし、後半日本語 OSCAR, CC100, wikiデータの学習終わりをそれぞれ $2 / 3 、 5 / 6 、 1$ としている。
図 2 を見ると、最終的に精度が高いのは 3.1 節でも説明したように実験(ののモデルであるが、学習前半途中のチェックポイント (0.333) では、日英 $1: 1$ の割合で学習した実験(1)のモデルが高い精度を出している。これは実験(1)で学習の前半に英語の学習が優先されるような比率で行なっているため、日本語の性能が前半は上がり切っていない学習途中の様相を呈しているからである。しかしながら、基礎的な日本語能力を獲得し、後半に日本語の学習データが上昇した領域では両者の精度が逆転している。これは前半では英語が易しいデータに、日本語が難しいデータに相当するとも考えることができる。この傾向は日本語の学習データを難易度によらずシャッフルしている実験(3)の結果が実験(1)同様のなだらかな上がり幅をしているのを見れば関連を推測することができる。また、実験(1)、実験(1)共に品質の高い wiki のデータ学習時が高いスコアを出しており、途中のデータでデータ量確保のために品質を下げて学習データを増やした場合、最終的に品質の高いデ一タで学習し終える必要性も示している。図 2 各チェックポイントの日本語タスク性能
## 4 おわりに
本稿では,オープンな大規模言語モデルである Llama 2 13B Chat に対して日英コーパスデータを用いて語彙置換継続事前学習を行い,言語間転移について調査した結果を報告した。Tokenizer を改良し、 なるべく元のモデルの重みを再利用しながらカリキユラムラーニングを行うことで、ある程度の英語能を残したまま、性能の高い日本語モデルを作成することに成功した。また本稿の結果は Ricoh モデルの学習途中のものであり、ここからさらに継続学習した結果は[9]の発表を参照されたい。今後の展望としては、データセットをコーパス種や言語での大きな区分でなく、もっと小さいセクションでカリキュラムラーニングの手法を活用することである。またここまで実験した日英 2 言語に中国語を混ぜた三言語に拡張し、さらに大規模な 70B パラメーターのモデル作成にも取り組む予定である。
## 謝辞
本研究のモデル構築、開発実験にあたり, アマゾンウェブサービスジャパン合同会社の AWS LLM 開発支援プログラムにより多大な助力を受けました。感謝申し上げます。
## 参考文献
[1] "meta-llama/Llama-2-13b-chat $\cdot$ Hugging Face." Accessed: Jan. 11, 2024. [Online]. Available: https://huggingface.co/meta-llama/Llama-2-13bchat
[2] Hugo Touvron, et al., Llama 2: Open Foundation and Fine-Tuned Chat Models. arXiv preprint arXiv: 2307.09288, 2023.
[3] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018.
[4] 中島大, 野崎雄太, 麻場直喜, 佐藤諒, 川村晋太郎,BPE を用いたトークナイザーの性能に対する、言語・語彙数・データセットの影響. 言語処理学会第 30 回年次大会, 2024.
[5] 野崎雄太,中島大,佐藤諒,伊藤真也,近藤宏,麻場直喜, 川村晋太郎. 大規模言語モデルに対する語彙置換追加事前学習の有効性の検証. 言語処理学会第 30 回年次大会, 2024.
[6] Yoshua Bengio, et al., Curriculum learning. ICML '09: Proceedings of the 26th Annual International Conference on Machine Learning, June, 2009. Pages 41-48.
[7] JP Language Model Evaluation Harness https://github.com/Stability-AI/lm-evaluationharness
[8] Language Model Evaluation Harness https://github.com/EleutherAI/lm-evaluationharness
[9] 麻場直喜, 野崎雄太,中島大,佐藤諒,池田純一伊藤真也, 近藤宏, 小川武士, 坂井昭一朗,川村晋太郎,語彙置換継続事前学習による日英バイリンガルモデルの構築と評価. 言語処理学会第 30 回年次大会, 2024 . | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A11-6.pdf | # 言語モデルの思考連鎖的推論における探索戦略の動的変化
青木洋一 ${ }^{1,2}$ 工藤慧音 1,2 曾根 周作 ${ }^{1}$ 栗林樹生 ${ }^{3}$
谷口雅弥 2 坂口慶祐 1,2 乾健太郎 ${ }^{3,1,2}$
1 東北大学 ${ }^{2}$ 理化学研究所 ${ }^{3} \mathrm{MBZUAI}$
\{tatsuki.kuribayashi, kentaro.inui\}@mbzuai.ac.ae,
masaya.taniguchi@riken.jp, keisuke.sakaguchi@tohoku.ac.jp
}
\{youichi.aoki.p2, keito.kudo.q4, sone.shusaku.r8\}@dc.tohoku.ac.jp,
## 概要
大規模言語モデルは探索が必要な複雑な推論問題においても一定の性能を示している.例えば推論過程を出力させる思考連鎖指示を用いることで,与えられた前提やゴールに対し, 方向感のある推論が可能である. 本研究では,大規模言語モデルの一連の推論において,探索に用いる手がかりが動的に変化していることを明らかにする.具体的には,思考連鎖的な推論の初期段階で,モデルは文の位置や質問文との類似度などの表層的な手がかりを用いた探索を行い,推論が進むにつれて最短経路を暗に計算する効率的な探索を行うことが分かった。
## 1 はじめに
与えられた事実や規則から結論を導く推論問題において,大規模言語モデル $[1,2]$ が一定の性能を示している. 例えば図 1 のように, 推論過程を出力させる思考連鎖(思考連鎖:与えられた前提やゴー ルに対して,段階的に思考をする過程を出力)を用いる事で推論能力が向上する $[3,4,5]$ 推論問題を見通しょく解くためには,次にどの事実や規則を選び適用すればよいかという探索を行う必要がある(探索: 与えられた前提やゴールから妥当な結論を導くこと) [6]. しかしながら,大規模言語モデルがどのような方針で探索を行なっているのかは分かっていない. 本研究では,思考連鎖指示の下で行われる推論について,推論が進む(ゴールへの距離が近づく)につれて,言語モデルの探索戦略が動的に変化している事を明らかにした.具体的には,思考連鎖的推論の段階では,大規模言語モデルは文の位置や質問文との類似度など表層的な特徴を活用した探索を行い,推論が進むにつれ,論理的に妥当な演算を行うことなどが分かった.
図1 思考連鎖を用いた場合,言語モデルは入力 $x$ に対して, 各推論ステップで推論過程 $z_{i}$ を出力する役割を担っている. 具体的には, 入力として $x=p_{1}, p_{2}, \ldots$ が与えられた時,推論ステップ $i$ では複数の推論経路候補の中から出力確率 $P\left(z_{i}\right)$ が最も高い推論経路 $z_{i}$ を出力する.
## 2 関連研究
## 2.1 思考連鎖
先行研究では, 推論問題に対する大規模言語モデル性能を向上させる方法として,少数の思考連鎖例を言語モデルに与える手法が提案された [3]. この研究では思考連鎖が $100 \mathrm{~B}$ 以上のモデルでのみ大幅な性能向上をもたらすことを発見し,思考連鎖を用いた推論を行うためには十分なモデル規模が必要であることを示した. その後の研究ではモデルの性能をさらに向上させるための思考連鎖手法の拡張が様々提案された $[7,8,9]$.
## 2.2 思考連鎖を用いた探索
先行研究では大規模言語モデルが深さ優先探索や幅優先探索を模倣した出力が可能である事が示された [4]. また,簡単な数当てゲームでは,大規模言語モデルが通常の深さ優先探索よりも効率が良い探索
図 2 言語モデルが探索時に次の推論経路の決定を行うための指標として使用している入力文中の情報は大きく分けて 2 つ考えられる.1)表層的な特徴: 質問文と類似する経路を選択するなど 2) 最短経路探索: 問題文中に含まれる論理的関係から,次の推論経路の選択を行う。
を行なっている事を発見した研究もあり,大規模言語モデルが何かしらの指標を用いて効率的な探索を実現している事が示された [5]. 本研究では,こうした探索が表層的な特徴や論理的関係を用いて行われている事を明らかにした。
## 3 問題設定
本研究では,推論問題における探索を考える。図 1 のように,言語モデルは与えられた問題文 $x$ に対して推論過程列 $z=\left[z_{1}, \cdots, z_{l}\right]$ を出力し, 最終的に結論 $\hat{y}$ 出す. ここで各推論ステップ $z_{k}$ は,1 文で表されるような命題とする.
本研究では,多段の推論が必要な数量推論データセットである GSM8K や人工的に作成されたデー タセットを用い,図 1 のような,いわゆる算数文章題を解くことを考える。問題文 $x$ は,前提集合 $\mathscr{P}=\left.\{p_{1}, \cdots, p_{m}\right.\}$ と問い $q$ からなる. 各前提 $p_{m}$ は 「太郎がりんごを 5 もっている」「次郎は太郎よりもりんごを 2 個多く持っている」といった事実であり,問い $q$ は「次郎はりんごを何個を持っているか」といったものである.問いに対する正解 $y$ は,特定の前提を順に「考慮」することで導くことができる. したがって,各推論ステップで出力される推論過程 $z_{i}$ は問題文中の前提集合 $\mathscr{P}$ 中のいずれかに言及することが望まれている。なお前提集合の中には,回答に関係のない情報も含まれている。正解 $y$ を導くための,過不足のない理想的な推論過程列 $z^{*}=\left[z_{1}^{*}, \cdots, z_{n}^{*}\right]$ を最短経路と呼び,最短経路を経た質問から回答までの一連の軌跡 $\left[q, z^{*}, y\right]$ を解と定義する. データセットに理想的な推論過程が付与されている場合は,それらを最短経路,解とする。
ここで問いになるのが,モデルが各推論ステップ $i$ において,どのような方針で推論過程 $z_{i}$ を選ぶかである。問題文中には質問と関係のない命題もあるため,例えば風潰しに前提を選んでいく戦略の場合,回答にたどり着くまでに冗長な前提を述べることになる。一方で,最短経路に準ずる前提を選ぶには,問いから関連する前提を逆算して同定しておく可能性があり,推論の高度な理解が求められる. 本研究では,言語モデルの推論能力の理解に向けて, どのような戦略で推論過程を生成しているかを調査する。
## 4 言語モデルの探索戦略
大規模言語モデルが適用する可能性のある推論過程探索戦略を列挙する。なお,どれかただ一つの戦略を採用しているという仮説ではなく,これらの組み合わせで探索している可能性も想定している.
## 4.1 最短経路選択
問題文を読んだ時点で,問いに答えるための最短経路を暗に計算し,推論過程として最短経路に従う前提を(ある種後付的な説明として)生成していく. 推論の理解および説明の冗長性という観点で,理想的な戦略である。
## 4.2 表層的な手がかりに基づく戦略
言語モデルは,しばしばデータの表層的手がかりに依存した振る舞いをする [10]. 大規模言語モデルが推論過程の探索で活用する可能性のある手掛かりとして,質問文との類似度, 語彙的特徴, 位置的特徴の 3 項目に焦点を当てる [10].
類似文選択:質問文と類似度の高い前提を推論過程として選んでいく. 大規模言語モデルは 2 つの入力間の特徴の重なりを表層的な手がかりとして活用する傾向があることが知られている $[11,12]$.
否定文回避:否定文では回答に関連する情報が増えていない可能性があるため, 否定文を避けて前提を選んでいく.例えば,言語モデルが否定語の有無を表層的な手がかりとして問題を解く振る舞いが観察されている $[13,14]$.
文位置バイアス: 問題文の先頭または末尾といった特定の位置で述べられている前提を優先的に選んでいく. モデルが位置を手がかりにして問題を解くふるまいもしばしば観察される [15].
## 5 実験設定
実験では,GPT-3.5-turbo,GPT-4 を評価対象とする. 推論問題として GSM8K を使用する。これは多段の推論が必要な数量推論データセットであり, 約 $1 \mathrm{~K}$ の評価データが含まれている.まず 6 節では,言語モデルが実際に 4.2 節で言及したような表層的バイアスを用いているかを調べる。次に 7 節において,この表層的バイアスに基づく探索が,特に序盤の推論過程を探索する段階でより好まれていることを示す.
## 6 実験 1 : 表層的手がかりの活用
## 6.1 データ
GSM8K の各問題に,表層的手がかりに基づく探索において選択されやすそうであり,かつ回答に関係のない文(ディストラクタ)を挿入し,推論過程表 1 GSM8K-overlap:GSM8K に対して,解答に無関係な文を 1 文追加したデータセット. 追加した文の主語には質問文の主語が必ず含まれている. 下線部分が新たに追加された文
Context: James's mother decides to run 2 sprints 2 times
a week. James decides to run 3 sprints 3 times a week.
James runs 60 meters each sprint.
Question: How many total meters does James run a week?
Answer: James sprints $3 * 3=\ll 3 * 3=9 » 9$ times..
表 2 GSM8K-not-overlap : GSM8K に対して,解答に無関係な文を 1 文追加したデータセット. 追加した文の主語には質問文の主語が含まれていない. 下線部分が新たに追加された文.
Context: Bob decides to run 2 sprints 2 times a week.
James decides to run 3 sprints 3 times a week. James runs 60 meters each sprint.
Question: How many total meters does James run a week? Answer: James sprints $3 * 3=\ll 3 * 3=9 » 9$ times..
を出力する際にモデルがそのデストラクタに言及してしまうかを調査する、モデルが推論過程を全て出力し質問に回答するまでの間に,一度でもディストラクタに言及してしまった場合,言及があったとする. それぞれの手がかりについて,ディストラクタを以下のように設計し,各設定で実験を行った。
類似文選択各問題における質問文の主語と同じ主語をもつ文をディストラクタとして追加する (GSM8K-overlap).対照実験として,質問文と主語が同じでない文を追加したデータも作成し, 同様の実験を行う(GSM8K-not-overlap)。表 1 と 2 に例を示す. 両データセットに新たな文を追加する際,元の GSM8K の問題文その解答に矛盾や変化が起きないように追加を行った.詳細は appendixAを参照. 追加した文が思考連鎖上で使用される確率を GSM8K-overlap と GSM8K-not-overlap で測定した.
否定文回避 GSM8K の各問題に Xavier haven't 4 apples, Xavier have 4 apples のような not が含まれる文,または含まれない文を追加し,GSM8K-pos/neg として同様の実験を行った。
文位置バイアス GSM8K の各問題の先頭・末尾に新たな文を追加したデータセットをそれぞれ GSM8K-head/tail として作成し,同様の実験を行った.
## 6.2 結果
結果は表 3 のようになった. いずれの表層的手がかりにおいても,手がかりに合致する文のほうが推論過程で言及される可能性が高く, 多かれ少なか
表 3 解答を得るために必要のない文を 1 文追加した際に, LLM が CoT 中にその文を参照した確率. 質問文との重なりが大きい文, 肯定的な文や文頭に存在する文の参照確率は高い
表 4 言語モデルが最短経路を出力しないようにバイアスを与えた形式言語データセット. 最短経路上の推論過程には質問文とは異なる主語を使用。
Context: Peggy has 5 apples. Walter has 2 more apples than Peggy. Judy's mother has 3 less apples than Peggy. ...
Question: How many apples does Judy have?
Reasoning Processes: Peggy has 5 apples. Walter has 2 more apples than Peggy. ...
れ,探索時にこれらの手がかりを活用する傾向にあることが分かる. 特に,類似文選択によるバイアスが強いことも分かる.
## 7 実験 2 : 探索戦略の動的変化
次に,これらの表層的手がかりが推論過程全体のうち,特にどのタイミング(1 ステップ目など)で特に用いられやすいかを調査する。この実験では,類似文選択を表層的な手がかりとする文を,最短経路上にない推論過程の出力を促すディストラクタとして含め,形式言語データを用意した. データはそれ以外のバイアスが生じないように統制されており,このデータ上で最短経路に合致する前提を選択できた場合は,最短経路選択戦略を実現できていると積極的に言える. 表 4 にデータの例を示す. 形式言語データセットは解の最短経路の長さが 3 になるように作成した. また, 形式言語データを 100 例作成し,モデルは GPT-3.5-turbo と GPT-4を使用した.
このようなデータ上で推論における各ステップにおいて,入力文中に表層的な特徴を有する文(ディストラクタ)を加え,次の推論ステップにおいて, モデルが最短経路上の前提を選択(出力)するか, ディストラクタを選択(出力)するかを測定した. なお推論ステップ $n(n>1)$ の設定の場合, $n-1$ ステップ目までの推論過程としては,最短経路における最初 $n$ ステップをモデルに与えている.
図 3 に結果を示す. 緑の線が,最短経路上の前提を出力した割合であり,オレンジの線がディストラ
図 3 最短経路の長さが 3 の形式言語データセットを用意. 緑:言語モデルに最短経路の 02 ステップまでを与えた時に推論過程 $z_{i}$ として $\left[z_{1}^{*}, z_{2}^{*}, z_{3}^{*}\right]$ を出力した割合. オレンジ:言語モデルが論理的に妥当だが最短経路に含まれない推論過程 $z_{i}$ を出力した割合
クタを選択した割合である. 緑とオレンジの線に当てはまらない事例としては推論過程候補に存在しない,論理的に誤った出力が挙げられる. 結果として, GPT-3.5, GPT-4 共に推論が進むにつれて表層的な手がかりに依拠した出力は起こりにくくなり,最短経路に合致する出力が増加することがわかった. したがって,推論の初期段階では広い探索空間から解答へと近づく最短経路を判断できず表層的な手がかりを用い,探索空間が狭まるにつれて最短経路を発見できることを示唆する。また,GPT-4 は GPT-3.5 と比較して, 最短経路の選択が広い探索空間であっても高い確率で最短経路選択を行う能力を保持している事が分かった. これは, モデルサイズの増加に伴いより効率的な探索の実現可能性を示唆している.
## 8 おわりに
本研究では,大規模言語モデルの段階的推論において,探索に用いる手がかりが動的に変化することを明らかにした.具体的には,思考連鎖推論の初期段階では文の位置や質問文との類似度などの表層的な手がかりを用いた探索を行い,推論が進むにつれて最短経路を暗に計算する効率的な探索を行っている. 本実験ではモデルとして GPT 系列のモデルのみを採用したが,今後はより多くのモデルを対象にしていきたい. また,本論文で示した結果はあくまでモデルの振る舞いから推察されるものであり,モデル内部においてどのような処理がされているかを直接確かめられたわけではない. 今後, 本論文で示したような,大規模言語モデルが行なっている探索戦略の変化を内部表現に着目して検証していくことも目指す。
## 謝辞
本研究は,JST CREST JPMJCR20D2 及び JSPS 科研費 JP21K21343 及び理化学研究所の基礎科学特別研究員制度の支援を受けたものである.
## 参考文献
[1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, MariaFlorina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020.
[2] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurélien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. CoRR, Vol. abs/2302.13971, , 2023.
[3] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed H. Chi, Quoc V. Le, and Denny Zhou. Chain-of-thought prompting elicits reasoning in large language models. In NeurIPS, 2022.
[4] Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, and Karthik Narasimhan. Tree of thoughts: Deliberate problem solving with large language models. CoRR, Vol. abs/2305.10601, , 2023.
[5] Bilgehan Sel, Ahmad Al-Tawaha, Vanshaj Khattar, Lu Wang, Ruoxi Jia, and Ming Jin. Algorithm of thoughts: Enhancing exploration of ideas in large language models. CoRR, Vol. abs/2308.10379, , 2023.
[6] Herbert A. Simon. Search and reasoning in problem solving. Artif. Intell., Vol. 21, No. 1-2, pp. 7-29, 1983.
[7] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. In NeurIPS, 2022.
[8] Andrew K. Lampinen, Ishita Dasgupta, Stephanie C. Y. Chan, Kory W. Mathewson, Mh Tessler, Antonia Creswell, James L. McClelland, Jane Wang, and Felix Hill. Can language models learn from explanations in context? In Yoav Goldberg, Zornitsa Kozareva, and Yue Zhang, editors, Findings of the Association for Computational Linguistics: EMNLP 2022, Abu Dhabi, United Arab Emirates, December 7-11, 2022, pp. 537-563. Association for Computational Linguistics, 2022.
[9] Eric Zelikman, Yuhuai Wu, Jesse Mu, and Noah D. Goodman. Star: Bootstrapping reasoning with reasoning. In
NeurIPS, 2022.
[10] Mengnan Du, Fengxiang He, Na Zou, Dacheng Tao, and Xia Hu. Shortcut learning of large language models in natural language understanding: A survey. CoRR, Vol. abs/2208.11857, , 2022.
[11] Yuxuan Lai, Chen Zhang, Yansong Feng, Quzhe Huang, and Dongyan Zhao. Why machine reading comprehension models learn shortcuts? In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Findings of the Association for Computational Linguistics: ACL/IJCNLP 2021, Online Event, August 1-6, 2021, Vol. ACL/IJCNLP 2021 of Findings of ACL, pp. 989-1002. Association for Computational Linguistics, 2021.
[12] Priyanka Sen and Amir Saffari. What do models learn from question answering datasets? In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 2429-2438. Association for Computational Linguistics, 2020.
[13] Mengnan Du, Varun Manjunatha, Rajiv Jain, Ruchi Deshpande, Franck Dernoncourt, Jiuxiang Gu, Tong Sun, and Xia Hu. Towards interpreting and mitigating shortcut learning behavior of NLU models. In Kristina Toutanova, Anna Rumshisky, Luke Zettlemoyer, Dilek HakkaniTür, Iz Beltagy, Steven Bethard, Ryan Cotterell, Tanmoy Chakraborty, and Yichao Zhou, editors, Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2021, Online, June 6-11, 2021, pp. 915-929. Association for Computational Linguistics, 2021.
[14] Timothy Niven and Hung-Yu Kao. Probing neural network comprehension of natural language arguments. In Anna Korhonen, David R. Traum, and Lluís Màrquez, editors, Proceedings of the 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28- August 2, 2019, Volume 1: Long Papers, pp. 4658-4664. Association for Computational Linguistics, 2019.
[15] Miyoung Ko, Jinhyuk Lee, Hyunjae Kim, Gangwoo Kim, and Jaewoo Kang. Look at the first sentence: Position bias in question answering. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 1109-1121. Association for Computational Linguistics, 2020.
## A GSM8K の拡張データセットの作成方法
GSM8K の各拡張データセットを作成するため, まず初めに以下のような前処理を行う.
- GSM8K の各問題文に対して,「人名または人称代名詞が含まれている」かつ「数値が含まれている」文を抽出し,各問題文に追加する文の候補として保存する
-「問題文中に登場する人物が 1 人ではない」または「人名または人称代名詞が含まれていない」または「各問題文に追加する文候補がない」問題を削除する。
・すべての人称代名詞をその人称代名詞が指している人物名に変更
- 問題文に追加する文候補の数值を変更
続いて,各拡張データセット毎に,保存済みの文候補から各問題に文を 1 つ追加する処理を行う.
## A. 1 GSM8K-over/not-over
GSM8K-over,GSM8K-not-over では GSM8K の各問題に追加する文の主語を以下のように変化させた。
- over: 質問文中の人物名 $+「 s$ mother"|"’s father"|"’s son"|"'s neighborhood」
- not-over: 質問文中に登場しない人物名
この処理によって,新たに追加した文と質問文の重なりが相対的に大きい/小さいデータセットとして, GSM8K-over/GSM8K-not-over が作成できる.
## B プロンプト
実験 2 : 探索戦略の動的変化では表 5 のプロンプトを使用した。表 5 形式言語データセットを解く際の入力プロンプト
Answer the context question according to the following example.
Context: Walter has 1 apples. Ursula has 3 more apples than Walter. Victor has 3 more apples than Ursula. Quentin has 2 more apples than Ursula. Nancy has 3 more apples than Walter. Zoe has 3 more apples than Nancy. Heidi has 3 more apples than Nancy. Carol has 4 apples. Xavier has 3 more apples than Carol. Peggy has 4 more apples than Xavier. Dave has 3 more apples than Xavier. Bob has 1 more apples than Carol. Alice has 3 more apples than Bob. Sybil has 2 more apples than Bob.
Question: How many apples does Dave have?
Answer:
Carol has 4 apples, and Xavier has 3 more apples than Carol. So, Xavier has 7 apples.
Xavier has 7 apples, and Dave has 3 more apples than Xavier. So, Dave has 10 apples.
The final answer is 10.
Context: Context: Zoe has 6 more apples than Larry. Ivan has 4 more apples than Nancy. Olivia has 3 apples. Zoe has 3 less apples than Sybil. Sybil has -1 apples. Nancy has 0 apples. Carol has 5 less apples than Olivia.
Question: How many apples does Zoe have?
Answer:
Sybil has -1 apples, and Zoe has 3 less apples than Sybil.
So, Zoe has -4 apples.
The final answer is -4 .
Context: Context: Zoe has 10 more apples than Dave. Eve has 2 apples. Dave has 3 more apples than Eve. Yvonne has 3 more apples than Quentin. Yvonne has 3 less apples than Zoe. Zoe has 3 more apples than Grace. Trent has 3 more apples than Zoe. Ivan has 3 apples. Ursula has 3 more apples than Zoe. Grace has 3 apples. Zoe has 3 more apples than Ivan.
Question: How many apples does Yvonne have?
Answer: Eve has 2 apples, and Dave has 3 more apples than Eve. So, Dave has 5 apples.
Dave has 5 apples, and Zoe has 10 more apples than Dave. So, Zoe has 15 apples.
Zoe has 15 apples, and Yvonne has 3 less apples than Zoe. So, Yvonne has 12 apples.
The final answer is 12. Context: Victor has 1 more apples than Mallory. Judy has 3 less apples than Peggy. Rob has -2 more apples than Eve. Peggy has -5 apples. Walter has 3 more apples than Peggy. Eve has 3 apples. Peggy has 3 more apples than Walter. Mallory has 3 more apples than Eve.
Question: How many apples does Victor have?
Answer: Eve has 3 apples, and Mallory has 3 more apples than Eve. So, Mallory has 6 apples.
Mallory has 6 apples, and Victor has 1 more apples than Mallory. So, Victor has 7 apples.
The final answer is 7 . | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-1.pdf | # 大規模言語モデルは自身の Hallucination を検知できるか?
門谷宙 西田光甫 西田京介 齋藤邦子
日本電信電話株式会社 NTT 人間情報研究所
\{sora.kadotani, kosuke.nishida, kyosuke.nishida, kuniko.saito\}entt.com
## 概要
大規模言語モデルは,流暢で説得力のある応答を生成できるが, hallucination を引き起こすことがある. 本研究では,大規模言語モデルが自身の hallucination を検知できるか検討する. hallucination 検知をある文の真偽判定タスクとして定式化し, LLM の hallucination 検知性能を測るフレームワークを提案する。また,LLMのパラメータから上手く知識を引き出すために Chain-of-Thought を用いる真偽判定手法も提案する. 実験の結果, GPT-3.5 Turbo は自身の hallucinationを $58.2 \%$ 検知することができ,検知率は LLM のパラメータに内包されている知識量に関係することが明らかになった。
## 1 はじめに
GPT-3 [1] や PaLM [2], LLaMA [3] などの大規模言語モデル (LLM) は,ユーザからの様々な入力に対し $\tau$, 非常に流暢で説得力のある応答を生成できる. その一方で,LLMは入力に対する答えが分からない場合でも平然と嘘をつき,事実に基づかない応答をすることがある.この現象は hallucination $[4,5]$ と呼ばれ,LLM の大きな課題として世界中で注目されている. LLM は文章自動作成や情報検索など多くのアプリケーションで使用されており, hallucination はアプリケーションの信頼性を低下させるため,開発者は hallucination を検知して防ぐ必要がある.
既存の hallucination 検知手法として,LLM の内部状態を用いる手法 $[6,7]$ と外部知識を用いる手法 $[8,9]$ がある. LLM の内部状態を用いる手法は, トークン予測確率が低い部分には hallucination が含まれている可能性が高いと仮定することで検知する.しかし, ChatGPT などの外部 API を通してアクセスするシステムの場合,ユーザは内部状態を得られないため内部状態に依存する手法は使えない. また,外部知識を用いる手法は,データベースやウェブから根拠となる文書を取得し, 生成テキスト
に事実と矛盾する内容が含まれていないか確認する.しかし,この手法は LLM とは別に知識べースや retriever などの外部モジュールが必要なので,すべてのユーザが手軽に使えるとは限らない.
LLM が自身で生成した誤情報を検知することは困難だと考えられるが,LLM hallucination 検知器として使うことができれば次に挙げるメリットがある. LLMを hallucination 検知器として用いる手法は,内部状態にアクセスできない LLM にも適用できる. さらに,外部モジュールが不要なので,すべてのユーザが手軽に使える。よって,本研究では以下のリサーチクエスチョン (RQ) に取り組む: $\boldsymbol{L} \boldsymbol{L} \boldsymbol{M}$ は自身の hallucination を検知できるか?
本研究では, hallucination 検知をある文の真偽判定タスクとして定式化し,LLM の hallucination 検知性能を測るフレームワークによって RQを検証する。 このフレームワークは,文中の知識がトリプルで表される文から構成されるデータセットを用いる。本研究において, トリプルとは (subject, relation, object) で表される実世界の事実を意味する。まず,LLMを用いてデータセット内の各文から真害の文と虚偽の文を生成する,そして,LLM 自身にそれぞれの文の真偽を判定させ,真偽判定精度を測定することで, RQ を検証する.さらに,LLMのパラメータに内包されている知識を引き出すために Chain-of-Thought (CoT) $[10,11]$ を用いる真偽判定手法を提案する.
LAMA データセット [12]を用いた実験の結果,GPT-3.5 Turbo は CoTを用いることで,自身の hallucination $58.2 \%$ 検知できることを確認した. また,LLM には hallucination 検知が得意な分野と不得意な分野が存在し,得意な分野では $80 \%$ 以上検知できることが分かった. 生成文中の object フレー ズを [MASK] に置き換えて予測したところ,フレー ムワークで生成した虚偽の文と一致するサンプルが存在したことから,フレームワークで生成する虚偽の文は LLM が引き起こしやすい hallucination を再現できていると考えられる. さらなる分析の結果,
図 1 真実の文の生成例
図 2 虚偽の文の生成例
LLM が hallucination を検知できない大きな原因は知識不足であり,パラメータに十分な知識が内包されていれば検知できる可能性が高いことが分かった.
## 2 検証フレームワーク
本フレームワークは,一つ以上のトリプルを含む文から構成されるデータセットを用いる。データセット内の各文について LLM を用いて,真実の文の生成,虚偽の文の生成,生成文の真偽判定を順に行う.以降,各処理について詳しく説明する。
## 2.1 真実の文の生成
LLM を用いて,データセット内の文の言い換え文を生成する,その際,object フレーズを使うように指示する。また, In-context Learning (ICL) [1]を用いて,問題と解答例のぺアを $k$ 例提示する.
図 1 亿実行例を示す。なお,図 1 から図 4 において太字部分は LLM の出力を表す. 実行例において, LLM が生成した言い換え文は元の文と同じトリプル (Paul Monusey, place of birth, Scotland) を含む真実の文である. 3 章において GPT-3.5 Turbo を用いて生成した真実の文をランダムに 100 件サンプリングして人手評価した結果, $99 \%$ が指示通りに生成された真実の文であった.
## 2.2 虚偽の文の生成
LLMを用いて, 2.1 節で生成した真実の文の object フレーズを書き換えて虚偽の文を生成する。その際,一見本当に見える文を生成するように指示する
図 3 生成文の真偽判定例
図 $4 \mathrm{CoT}$ を用いた生成文の真偽判定例
ことで,検知が難しい虚偽の文を生成させる。
図 2 に実行例を示す. 実行例において, 生成された文は誤ったトリプル (Paul Monusey, place of birth, Ireland) を含む虚偽の文である. 3 章において GPT-3.5 Turbo を用いて生成した虚偽の文をランダムに 100 件サンプリングして人手評価した結果, 99\% が指示通りに生成された虚偽の文であった. 生成した虚偽の文に含まれる hallucination が実際に生成され得るかは 3.3 節にて検証する。
## 2.3 生成文の真偽判定
LLM を用いて,2.1 節と 2.2 節で生成した文の真偽を判定する.回答は”yes / no” で生成させる。
図 3 に実行例を示す. 害行例において,入力文は誤ったトリプル (Paul Monusey, place of birth, Ireland)含む虚偽の文であるため,"yes”と回答している.
## 2.4 CoT を用いた生成文の真偽判定
LLM の知識はパラメータに埋め込まれており [13], 外部知識に頼らず文の真偽を判定するには, パラメータに内包されている知識の活用が重要であると考えられる。よって,パラメータから知識を上手く引き出すために CoTを用いる手法を提案する.
図 4 に実行例を示す。実行例において,LLM は入
図 5 relation ラベルごとの hallucination 検知率
力文を意味のまとまりごとに分割し, 文頭から順に誤情報が含まれるか確認している. その際, 根拠となる事実をパラメータに内包されている知識に基づき生成することで,文の真偽判定に成功している.
## 3 実験
データセットとして,LAMA データセットを用いる. LAMA データセットは, 言語モデルの知識量を評価するためのデータセットであり,トリプルの情報が付与された英文で構成されている.
## 3.1 設定
予備実験において,LLM が代名詞を含む文の真偽を判定する場合,代名詞の指示先が分からないという理由で回答を控える挙動を確認した. そのため,前処理として NLTK [14]を用いて,代名詞を含む文を除去する.実験には 4 つのカテゴリのうち Wikipedia に基づいている T-REx [15]を用いる. T-REx には 41 種類の relation ラベルがあり, 前処理後のテストデータは 26,803 文である.
LLM として,GPT-3.5 Turbo ${ }^{1)}$ を用いる. システムには OpenAI の $\mathrm{API}^{2)}$ を通してアクセスする。 temperature は 0.0 に設定し, 10 -shot で生成する. ICL の例は, T-REx の検証データの relation ラベルが異なる 41 文をもとに人手で作成し,ランダムに選択する。確信度が低いために LLM が回答を控えた場合は,hallucination を検知したとみなす。
評価指標には, hallucination 検知の recall, precision, $\mathrm{F}$ 値,正解率を用いる. hallucination を見逃す偽陰性は偽陽性より深刻な誤りであるため recall は最も重要な評価指標であり, hallucination 検知率とも呼ぶ.
1) $2023 / 11 / 6$ 版のモデルを用いた.
2) https://platform.openai.com/docs/api-reference表 1 実験結果 (値は \% 表示, $\mathrm{R}$ は recall, $\mathrm{P}$ は precision)
## 3.2 結果
表 1 亿実験結果を示す. CoTを用いない手法は recall が $21.9 \%$ しかない. CoT を用いることで, recall が $36.3 \%, \mathrm{~F}$ 值が $33.8 \%$, 正解率が $14.5 \%$ 向上した.このように,GPT-3.5 Turbo は CoTを用いないと hallucination 検知器として使うことは難しいが, CoT によってパラメータに内包されている知識を引き出すことで検知性能が向上することが分かった.
その一方で,precision は $1.3 \%$ 低下した。これは CoTを用いることで詳細な知識を引き出せるようになり,事実や表現が曖昧な部分も誤情報として検知するようになったことが原因だと考えられる.
図 5 に GPT-3.5 Turbo (with CoT) の relation ラベルごとの hallucination 検知率を示す. 地理や企業に関する分野の hallucination 検知率は $80 \%$ 以上である (図の緑の部分) が,人物やエンタメに関する分野の hallucination 検知率は $40 \%$ 以下である (図の橙の部分).このように,LLMには hallucination 検知が得意な分野と不得意な分野が存在することが分かった.
## 3.3 分析
## 生成した虚偽の文は意図しない hallucination を再現するか? 本フレームワークで生成する虚偽 の文に含まれる hallucination は指示文を用いて意図的に発生させたものであり,実際の意図しない hallucination と厳密には異なっている可能性がある. しかし, 本フレームワークの虚偽の文は LLM の出
カトークンの確率分布に従って生成されるため, LLM が引き起こしやすい hallucination を再現できていると考える.フレームワークで生成する虚偽の文に含まれる hallucination が実際に発生するか確認するために,GPT-3.5 Turbo を用いて [MASK] に置き換えられた object フレーズを予測したところ, $1.13 \%$ が虚偽の文と一致した (詳細な実験設定は付録で述べる). このことから,フレームワークで生成する虚偽の文は LLM の誤りとして発生し得る hallucination を再現できていると考えられる。
## hallucination 検知率はモデルの知識量と関係が
あるか? 2.4 節において,LLM が文の真偽を判定するにはパラメータに内包されている知識を活用する必要があると仮定し,知識を引き出すために CoTを用いる手法を提案した. 本節では,LLM の hallucination 検知率と知識量の関係を分析する。
あるエンティティに関する LLM の知識量は,事前学習コーパスに関連するテキストがどれだけ含まれているかに依存する $[16,17,18]$. LLM の事前学習コーパスはウェブ上のあらゆるテキストデー タで構成されているため,あるエンティティに関連するテキスト量とそのエンティティの popularity には相関があると考えられる [19]. よって,LLM の hallucination 検知率とトリプルの popularity の関係を調査する. 本研究では, 先行研究 [19] に従ってエンティティの popularityを該当する Wikipedia ページの閲覧数 ${ }^{3}$ と定義し, トリプルの popularity は subject と object の閲覧数の合計とする.
テストデータをビンに振り分けて,ビン内の GPT-3.5 Turbo (with CoT) の hallucination 検知率とトリプルの平均 popularityを計算する. そして, Scipy [20] を用いて Spearman の順位相関係数を求める. hallucination 検知の難易度を popularity から説明できるか調べるために,トリプルの popularity に従って 20 個のビンに等しく振り分ける. また, relation ラベルごとの hallucination 検知の難易度を popularity から説明できるか調べるために, relation ラベルに従って 41 個のビンに振り分ける.
表 2 に分析結果を示す. いずれの振り分け方でも正の相関があった. 特に,トリプルの popularity に従って振り分けた際の相関係数は 0.60 であり,相関が有意に高い。このことから,LLM の hallucination 検知率は知識量に関係しており,パラメータに十
表 2 hallucination 検知率と popularity の相関
分な知識が内包されていれば検知できる可能性が高いことが分かった. また, relation ラベルごとの hallucination 検知の難易度を popularity からある程度説明できることが分かった。
## 4 関連研究
内部状態を用いる hallucination 検知手法は,主にトークン予測確率からモデルの確信度を推定する $[21,22,7]$.
外部知識を用いる手法はファクトチェックの分野で活発に研究されており,クレーム抽出,根拠検索,矛盾推定という多段階の処理を順に行う手法 $[23,9]$ が主流である.近年は,LLM が生成したテキストのための手法 [24] も提案されている.
## 5 おわりに
本研究では, hallucination 検知をある文の真偽判定タスクとして定式化し, LLM の hallucination 検知性能を測るフレームワークによって $\boldsymbol{L} \boldsymbol{L} \boldsymbol{M}$ は自身の hallucination を検知できるか? という $\mathrm{RQ}$ を検証した. また,LLMのパラメータから知識を引き出すために CoTを用いる真偽判定手法を提案した. 実験と分析の結果,LLM はパラメータに十分な知識が内包されていれば,自身の hallucination を検知できることを明らかにした. 本研究の貢献を以下に示す.
本研究の独自性. 本研究は,LLM が自身の hallucination を検知できることを初めて定量的に示した. LLMを hallucination 検知器として用いる手法には,内部状態にアクセスできない LLM にも適用でき外部モジュールなしですべてのユーザが手軽に使えるという,既存手法にはない特徴がある。
本研究の重要性. 本研究では,LLM の hallucination の改善に向けて,検知タスクとして定式化した. 提案したフレームワークは,各 LLM がどのような分野で hallucination を引き起こしやすいかを評価する研究の足掛かりとなる. また, hallucination 検知と popularity との関係を見ることで,hallucination 検知の性能と LLM の知識量に関連があることを発見し,事前学習コーパスの量の重要性を示した.
## 参考文献
[1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In NeurIPS, 2020.
[2] Aakanksha Chowdhery, et al. Palm: Scaling language modeling with pathways. In arXiv:2204.02311, 2022.
[3] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models. In arXiv:2302.13971, 2023.
[4] Nouha Dziri, Sivan Milton, Mo Yu, Osmar Zaiane, and Siva Reddy. On the origin of hallucinations in conversational models: Is it the datasets or the models? In NAACL-HLT, pp. 5271-5285, 2022.
[5] Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu, Etsuko Ishii, Ye Jin Bang, Andrea Madotto, and Pascale Fung. Survey of hallucination in natural language generation. ACM Comput. Surv., Vol. 55, No. 12, 2023.
[6] Weizhe Yuan, Graham Neubig, and Pengfei Liu. Bartscore: Evaluating generated text as text generation. In NeurIPS, 2021.
[7] Lorenz Kuhn, Yarin Gal, and Sebastian Farquhar. Semantic uncertainty: Linguistic invariances for uncertainty estimation in natural language generation. In ICLR, 2023.
[8] James Thorne, Andreas Vlachos, Christos Christodoulopoulos, and Arpit Mittal. FEVER: a large-scale dataset for fact extraction and VERification. In NAACL-HLT, pp. 809-819, 2018.
[9] Zhijiang Guo, Michael Schlichtkrull, and Andreas Vlachos. A survey on automated fact-checking. TACL, Vol. 10, pp. 178-206, 2022.
[10] Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. In NeurIPS, 2023.
[11] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, and Denny Zhou. Chain-of-thought prompting elicits reasoning in large language models. In NeurIPS, 2023.
[12] Fabio Petroni, Tim Rocktäschel, Sebastian Riedel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, and Alexander Miller. Language models as knowledge bases? In EMNLPIJCNLP, pp. 2463-2473, 2019.
[13] Gautier Izacard, Patrick Lewis, Maria Lomeli, Lucas Hosseini, Fabio Petroni, Timo Schick, Jane Dwivedi-Yu, Armand Joulin, Sebastian Riedel, and Edouard Grave. Atlas: Few-shot learning with retrieval augmented language models. In JMLR, 2022.
[14] Steven Bird, Ewan Klein, and Edward Loper. Natural lan- guage processing with Python: analyzing text with the natural language toolkit. 2009.
[15] Hady Elsahar, Pavlos Vougiouklis, Arslen Remaci, Christophe Gravier, Jonathon Hare, Frederique Laforest, and Elena Simperl. T-REx: A large scale alignment of natural language with knowledge base triples. In LREC, 2018.
[16] Yasaman Razeghi, Robert L Logan IV, Matt Gardner, and Sameer Singh. Impact of pretraining term frequencies on few-shot numerical reasoning. In EMNLP Findings, pp. 840-854, 2022.
[17] Nicholas Carlini, Daphne Ippolito, Matthew Jagielski, Katherine Lee, Florian Tramer, and Chiyuan Zhang. Quantifying memorization across neural language models. In ICLR, 2023.
[18] Nikhil Kandpal, Haikang Deng, Adam Roberts, Eric Wallace, and Colin Raffel. Large language models struggle to learn long-tail knowledge. In ICML, 2023.
[19] Alex Mallen, Akari Asai, Victor Zhong, Rajarshi Das, Daniel Khashabi, and Hannaneh Hajishirzi. When not to trust language models: Investigating effectiveness of parametric and non-parametric memories. In ACL, pp. 9802-9822, 2023 .
[20] Pauli Virtanen, Ralf Gommers, Travis E. Oliphant, Matt Haberland, Tyler Reddy, David Cournapeau, Evgeni Burovski, Pearu Peterson, Warren Weckesser, Jonathan Bright, Stéfan J. van der Walt, Matthew Brett, Joshua Wilson, K. Jarrod Millman, Nikolay Mayorov, Andrew R. J. Nelson, Eric Jones, Robert Kern, Eric Larson, C J Carey, Ilhan Polat, Yu Feng, Eric W. Moore, Jake VanderPlas, Denis Laxalde, Josef Perktold, Robert Cimrman, Ian Henriksen, E. A. Quintero, Charles R. Harris, Anne M. Archibald, Antônio H. Ribeiro, Fabian Pedregosa, Paul van Mulbregt, and SciPy 1.0 Contributors. SciPy 1.0: Fundamental Algorithms for Scientific Computing in Python. Nature Methods, Vol. 17, pp. 261-272, 2020.
[21] Andrey Malinin and Mark Gales. Uncertainty estimation in autoregressive structured prediction. In ICLR, 2021.
[22] Yijun Xiao and William Yang Wang. On hallucination and predictive uncertainty in conditional language generation. In EACL, pp. 2734-2744, 2021.
[23] Wanjun Zhong, Jingjing Xu, Duyu Tang, Zenan Xu, Nan Duan, Ming Zhou, Jiahai Wang, and Jian Yin. Reasoning over semantic-level graph for fact checking. In ACL, pp. 6170-6180, 2020.
[24] I-Chun Chern, Steffi Chern, Shiqi Chen, Weizhe Yuan, Kehua Feng, Chunting Zhou, Junxian He, Graham Neubig, and Pengfei Liu. Factool: Factuality detection in generative ai - a tool augmented framework for multi-task and multidomain scenarios. In arXiv:2307.13528, 2023.
図 6 object フレーズ予測の実行例
## A object フレーズ予測の実験設定
2 章のフレームワークで生成する虚偽の文に含まれる hallucination が実際に発生するか確認するために, 生成文中の object フレーズを [MASK] に置き換え,[MASK] に入る適したフレーズを LLM に予測させる. 文の生成や真偽判定と同様に ICLを用いて問題と解答例のペアを $k$ 例提示し,[MASK] に入るフレーズのみを回答させる.
図 6 に GPT-3.5 Turbo の実行例を示す. 実行例において,文中の [MASK] に入る正しい object フレー ズは "Manhattan”である. GPT-3.5 Turbo は [MASK] に入るフレーズを "Brooklyn” と誤答しており,これは虚偽の文と同一の hallucination であった。
## B 真実の文を誤判定した例
表 1 において,CoTを用いることで hallucination 検知の precision が低下している。これは CoTを用いることで,LLM のパラメータからより詳細な知識を引き出せるようになり,事実や表現が曖昧な部分も誤情報として検知するようになったことが原因だと考えられる。
図 7 に GPT-3.5 Turbo (with CoT) が真実の文を誤判定した例を示す.この例において,GPT-3.5 Turbo はダッジ・ニトロという車が 2007 年から 2012 年まで製造されたという部分を誤情報として検知しており,正しくは 2006 年から 2011 年であると生成している. 実際に,ダッジニトロの 2007 年モデルは 2006 年に製造が開始されており,2011 年を持って生産が終了されたと記載しているウェブページ4)が存在する。このように CoTを用いると,真実の文であっても曖昧な部分が含まれていると虚偽の文と判定することがある.
2. "was manufactured by Dodge from 2007 to the $\mathbf{2 0 1 2}$ model year": This part of the sentence is inaccurate. The Dodge Nitro was actually manufactured from 2006 to 2011 , not until the 2012 model year.
So, the sentence contains misinformation in the second part where it incorrectly states the manufacturing timeline for the Dodge Nitro.
Answer: yes
図7CoTを用いて真実の文を誤判定した例
表 3 GPT-4 Turbo の実験結果 (值は\% 表示,R は recall,P は precision)
## C GPT-4 Turbo を用いた実験
LLM として GPT-4 Turbo5)を用いて,本研究のフレームワークを実施する.実験設定は 3.1 節に従う。
表 3 に実験結果を示す. CoT を用いない手法は recallが $23.3 \%$ しかない. CoTを用いることで, recall が $35.1 \%$ ,F 值が $32.4 \%$ ,正解率が $14.1 \%$ 向上した. このように, GPT-4 Turbo であっても CoT がないと hallucination 検知器として使うことは難しいが,CoT によってパラメータに内包されている知識を引き出すことで検知性能が向上することが分かった.
表 3 を表 1 と比較すると,GPT-4 Turbo (with CoT) と GPT-3.5 Turbo (with CoT) $の$ hallucination 検知率にほとんど差がないことが分かる。この理由は, GPT-4 Turbo で生成した虚偽の文は GPT-3.5 Turbo で生成した虚偽の文よりも真実味があり検知が難しいからである可能性がある。しかし,GPT-4 Turbo で生成した文の真偽を GPT-3.5 Turbo (with CoT) で判定したときの hallucination 検知率は $58.1 \%$ であり, GPT-4 Turbo (with CoT) $の$ hallucination 検知率とほとんど差がなかった。 halucination 検知には LLM の知識量が重要だったことを考えると,LLM のパラメー タに内包されている知識量においては GPT-4 Turbo と GPT-3.5 Turbo にほとんど差がない可能性がある.
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-2.pdf | # 大規模言語モデルにおける日本語ゼロ照応解析能力の分析
野末慎之介 ${ }^{1}$ 石月由紀子 1,2 松林優一郎 1,2 坂口慶祐 ${ }^{1,2}$
1 東北大学 2 理化学研究所
\{nozue.shinnosuke.q5, yukiko.ishizuki.p7\}@dc.tohoku.ac.jp
\{y.m,keisuke.sakaguchi\}@tohoku.ac.jp
## 概要
GPT-4 に代表される大規模言語モデルは言語処理の様々な下流タスクで好成績を収めることが明らかになっているが,その能力が真に言語の基礎的理解能力に由来するものであるかは明らかではない.本研究では,自然言語処理の基礎解析タスクの中でも困難なものの一つとされてきたゼロ照応解析タスクについて,大規模言語モデルの能力を評価する.実験の結果,GPT-4 はゼロ照応解析において十分な性能を発揮しないことが明らかになった. その原因を特定するための検証実験とエラー事例分析の結果から,ヨ格とニ格に関する格フレーム知識と,二格に関する選択選好知識の不足が原因であると示唆された.
## 1 はじめに
日本語では述語の項が頻繁に省略される。そのような省略された項( $\phi$ )を同定するゼロ照応解析 (図 1)は,最先端のモデルにおいても $F_{1}$ 値が $64 \%$程度であり [1],解析が困難なタスクの一つである.一方で,GPT-4 [2] は,日本語理解能力を測るべンチマークの JGLUE において大規模言語モデルの中で最高性能を示し,特定のタスクで追加学習された BERT[3] などのモデルを一部タスクで上回った $[4,5]$. 日本語の文章にはゼロ照応表現が多く含まれるため, 日本語理解に優れた GPT-4 はゼロ照応解析においても高い性能を発揮する可能性がある.
本研究では,日本語理解に最も優れた大規模言語モデルのゼロ照応解析性能を明らかにすることを目的として,同タスクの主要なベンチマークデータである NAIST Text Corpus (NTC) 1.5 [6,7] における GPT-4 の性能を評価した. 実験の結果,GPT-4 の性能は最先端モデルと比較して大きく劣ることが明らかになった. さらにいくつかの詳細な実験とエラー事例の分析により原因の考察を行ったところ,
図 1 ゼロ照応解析の例. 省略された項は $\phi$ で表される. タスクでは,「向かう」のガ格に項があること,およびその照応先が「私」であることを推定している.
GPT-4 の解析性能は,ヨ格とニ格に関する格フレー 么知識と,二格に関する選択選好知識の不足に起因することが示唆された。
## 2 日本語ゼ口照応解析
本研究のゼロ照応解析タスクは,主要なベンチマークコーパスである NTC 1.5 の仕様に従う.NTC では,ゼロ照応解析は述語の項を同定する述語項構造解析タスクの一部として内包されている。また,項の特定に関しては,ガ格,ヨ格,二格の必須格の項のみがアノテーションされているため $[6,7]$, 本研究でも,これらの 3 つの格について評価を行う. また,既存研究では一般に,述語と直接係り受けの関係にある項の解析を dep と呼び,ゼロ照応解析のうち,述語と項が同じ文内にある事例を intra,述語と項が別の文にある事例を inter,項が存在するものの,文書内に明示的に表出していない事例を exophora と呼び, 区別している $[1,8,9]$. 本研究での解析性能評価もこの区分に従う.
## 3 手法
## 3.1 GPT-4 によるゼロ照応解析
本研究では,項を GPT-4 に生成させることによりゼロ照応解析タスクを実現する.入力するプロンプトでタスクの指示と複数文で構成された文脈を与え,述語の位置と格を指定する.出力の形式は「〜」+格助詞(が,を,にいずれか 1 つ)+述語1)
とし,「〜」に入るフレーズを問う.出力されたフレーズの文脈における位置を特定し,その位置を解答として記録した. 出力されたフレーズが文脈にない場合は exophora であるとみなし,そのフレーズが一人称を表すものであれば author,二人称を表すものであれば reader,この 2 つに当てはまらない場合は general としてその細分類を記録した. 項が存在しないと判定した場合には「該当なし」と出力させた. また,共参照関係によって正解の項が文脈の複数の位置に含まれる場合はその全てを正解とした.
プロンプトプロンプトはタスク説明と文脈に分けられる.タスク説明では,タスクの指示,対象の述語の文脈における位置,1つの格を指定した。夕スクの指示として受身形の述語は能動形として考えるよう指定した。これは,NTC 1.5 のアノテーションが能動形を基準に作られているためである. 文脈は、述語の文とその前方 3 文を合わせた 4 文とした.文書において述語の前方が 3 文に満たない場合, 後方から満たない行数文だけ抽出した. 文書自体が 4 文に満たない場合は文書の全文を抽出した. 文脈内では対象の述語を「**」で囲み,述語の位置を指定した.
few-shot 文脈内学習 5 -shot の設定では $d e p$, intra, inter, exophora の 4 つに, 正解の項がない問題を加えた 5 つの例を見せることで文脈内学習を行った. 5 つの例はそれぞれ訓練セットから引用した. zero-shot, 5-shot のそれぞれのプロンプト例と出力例は付録の A に示す.
## 4 実験
ベースラインモデル本研究では NTC 1.5 における最先端モデルである Konno ら [1] のモデルをベースラインとする. Konno らは bert-base-japanese を使用し,ゼロ照応解析を Cloze テスト形式の項の選択問題として定式化した. これは, 系列の先頭に [CLS], 文の境界に [SEP] が挿入された複数の文から構成された系列 $X$ について, その末尾に [MASK]+格助詞(が,を,にいずれか $1 つ )+$ 述語2)で構成されるクエリフレーズを追加した系列 $X^{\prime}$ を入力とし, [MASK] に入るトークンを系列 $X$ から選択させるというものである.トークンが系列 $X$ 中に存在しない場合には, [CLS] が選択される. [CLS] が選択された場合は,4つのカテゴリ author, reader, general, noneから 1 つを選択させる. author, reader, general
表 1 NTC 1.5 の評価セットにおける $F_{1}$ 値.太字は最良のスコアを示す. Konno らのスコアは論文より引用 [1]. GPT-4 は評価セットの 1 割(2557 述語)で評価した結果であるため,厳密な比較はできない。
表 2 5-shot における格ごとの適合率,再現率, $F_{1}$ 値.
は上述の通り, exophora の細分類であり, none は該当する項が存在しないことを表す.
実験設定 GPT-4 の評価は zero-shot と 5-shot で行った. 使用した GPT-4 のバージョンとパラメータは付録の B に示す。
データセット分割 Konno ら [1] に倣い,データセットは Taira らの分割法 [10] に従って訓練・開発・評価セットの 3 つに分割した. GPT-4 のプロンプトエンジニアリングには訓練・開発セットを用い,評価には評価セットを用いた。
## 4.1 結果
結果を表 1 に示す. ただし,GPT-4の值は評価セットの 1 割の事例数で評価した段階で顕著にべー スラインを下回っていたため,この時点で評価を終了した, したがって, 表の数字は評価セット内のランダムな 1 割の事例で算出したものである. zero-shot, 5-shot のいずれも全項目でベースラインを大幅に下回った. その一方で, 5-shotでは, zero-shot と比較して全項目でスコアの改善が見られたことから,文脈内学習の効果はあるといえる。
GPT-4 の解析能力の低さををより詳細に分析するため, 5-shot モデルの 4 カテゴリ全体におけるの格ごとのスコアを表 2 に示した. 特にヨ格とニ格については,再現率と比較して適合率が著しく低いことが明らかになった. この理由をさらに詳しく分析するため,GPT-4 のエラーを,1. 正解の項があるが誤った項を出力,2. 正解の項があるが「該当なし」 と出力,3. 正解の項がないが項を出力の 3 つに分類した(表 3). 分類の結果から,3 のパターンが最多のエラーであることが明らかになり,GPT-4 は,本
表 3 GPT-4 が誤った事例の分類.
表 4 GPT-4 が誤った事例.太字は対象の述語を示し,中央の列は判別対象の格を示す.
& Э格 & \\
来存在しない格助詞を必要以上に回答するエラーを多数引き起こしていることが分かった. 次節ではこの要因を特定をするために更に詳細な分析を行う。
## 5 エラー事例分析
上述した 3 のパターンの出力例を表 4 に示す. まず, 1 行目と 2 行目の事例では,述語がどの文脈でもとり得ない格を判別できていない. 1 行目の事例の「隣接する」はヨ格をとらない。また,2行目の例では,「出る」は「内側から外へ移動する. $」^{3)}$ という語義で,「店を出る」のようにヨ格をとる場合もあるが,この文脈の「物が産出される.」当)という語義で使われる場合にはヲ格はとらない。このように,述語がどの格をとり得るかは,その述語の性質と語義によって決まる. 述語がどの格をとる可能性があるか記録したものを格フレームといい,本研究ではこの知識を格フレーム知識と呼ぶ。これらの事例から GPT-4 の格フレーム知識の不足が疑われる.
次に, 3 行目の事例では, 述語はとり得るが, 対象の文脈ではとらない格を判別できていない。通常,「述べる」の二格には相手を表す言葉が入り,場を表す言葉はデ格の項になる. しかし,この事例ではニ格に「述べる」場を表す言葉として「白書」が入っている.このことから,GPT-4 はニ格とデ格でとる言葉の属性を混同していると推測される.この述語が格によってどのような属性の言葉をとるかについての選好性を選択選好といい,本研究ではこの知識を選択選好知識と呼ぶ. このような事例から GPT-4 の選択選好知識は不足していることが疑われる。以上から 6 節では, 4.1 節の実験におけるヨ格,ニ
3)スーパー大辞林を参考に作成.表 5 GPT-4 による述語の格フレーム理解度の検証結果。
格の適合率が低いことが,格フレーム知識と選択選好知識の不足に起因するかを検証する。
## 6 知識の検証
本実験は 2 段階で構成される.まず,入力プロンプトで述語,語義,格をそれぞれ 1 つずつ指定し,指定された語義に対して述語がその格をとるかどうかを「はい」か「いいえ」を出力させた。この出力を正解の格フレームで正誤判定し,格フレーム知識の理解度を測る。次に最初の問いに対する回答が 「はい」である場合に,述語が対象の格をとる例を 3 文出力させた.出力のうち,例として自然な文章の割合によって,選択選好知識の理解度を測る. プロンプトと出力の例は付録のD に示す.
## 6.1 実験設定
評価方法格フレーム知識に対する評価には $F_{1}$値を用いた。続いて,選択選好知識に対する評価は,人手評価により正解率を求めた. ただし,正解率の算出には最初の問いで正解ラベルが「はい」である事例(以下,述語が対象の格をとる事例)のみを用いたが,エラー事例の分析には,正解ラベルが 「いいえ」である事例(以下,述語が対象の格をとらない事例)を含めた。
データセット NTC 1.5 の評価セットからランダムに抽出した 100 個の異なる述語を問題として扱った. 正解となる述語の格フレームは, 京都大学格フレーム [11] に基づき,事前に著者ら 3 名によって定められた。京都大学格フレームは語義ごとに格フレームが分類されているため,述語の語義を特定することで適切な格フレームが定まる。そこで語義は述語の文脈とスーパー大辞林を参照して特定した. データセットの作成手順は付録のCに示す.
## 6.2 格フレーム知識の検証結果
結果を表 5 に示す.ガ格とヨ格の $F_{1}$ 値は $90 \%$ \%超えており高いものといえるが,二格は他の格に比べて $15 \%$ 以上低く,相対的にニ格に関する格フレー 么知識が不足しているといえる。
## 6.3 選択選好知識の検証結果
正解率はガ格が $90.72 \%$, Э格が $92.35 \%$, 二格が $80.67 \%$, 全体で $88.78 \%$ であった.ガ格,ヨ格に関する選好選択知識の正解率が 90\%以上である一方で,二格は他の格に比べて $10 \%$ 以上正解率が低く,二格に関する選好選択知識の理解度は相対的に低い。
## 6.4 検証におけるエラー事例分析
まず述語が対象の格をとる事例における主な誤りは,他の語義であればその格でとるが,指定した語義ではその格でとらないようなフレーズを答えた事例であった. 例えば,「終わりにする. $」^{3)}$ という語義の「閉じる」のヲ格では「生涯を閉じる」のように,終わりとなる対象を表す項をとる。 しかし,GPT-4 は「ドアを閉じる」のような「開いていたものをふさがった状態にする. ${ }^{3)}$ という語義の例を生成しており, 一部の述語では語義によって項の選択選好性を識別できていない.
次に述語が対象の格をとらない事例における主な誤りは,述語が他の格のフレーズとしてとるものを,述語がとらない格の項として答えた事例であった. 例えば「全壊する」という述語は「家」という言葉に対してガ格をとり,いずれのフレーズに対しても习格をとらないが,「家を全壊する」というような不自然な日本語が生成された。このことから,一部の述語では,その述語がとりうる格,およびその格に対する適切な選択選好性を理解できていないといえる. 特にヨ格においては,この事例がほとんどであった. また,二格では係り受け関係を理解していないような事例も見られた。例えば「非難する」 の二格の例として「彼女は社長に非難するためのレターを送った.」という文が生成された。この「社長に」は「非難する」ではなく,「送った」の二格であり,係り受け関係を誤読していることがわかる。
## 7 考察
6 節の結果から 4.1 節の結果の原因を検討する. ただし,GPT-4 のガ格の格フレームと選択選好に対する理解度は高く, 今回の仮説以外の原因がガ格に対するゼロ照応解析性能に影響することが示唆されたため,本節ではヨ格とニ格について議論する。
まず表 5 から, ヨ格とニ格の適合率が低さが明らかになった. これは GPT-4 がヲ格やニ格をとると認識している述語のうち,それぞれ約 $15 \%$ と約 $25 \%$ の述語が誤っていることを示す。6.4節から,GPT-4がヨ格やニ格に関する格フレームを誤る原因として,他の格でとるフレーズをヨ格やニ格でとるフレー ズだと誤認していることがいえる。また,二格においては,二格に関連する係り受け関係を誤読してしまっていることから,格フレームに関連する他の基礎的な知識も不足していることが示唆された. 以上のことが原因となり表 4 の 1,2 行目のようなエラー が起きていると考えられる。
次に 6.3 節から,二格では約 $20 \%$ の述語で項の選好性に対する認識が誤っており,二格をとると正しく推測した場合でも文脈から誤った項を選択する可能性が他の格に比べて高いといえる.6.4 節より, その主な原因は語義ごとに異なる項の選好性を理解できていないことであるといえ,このような選択選好知識の不足により表 4 の 2 行目のようなエラーが起きると考えられる。
以上の議論から,GPT-4 にはヨ格とニ格に関する格フレーム知識と,二格に関する選択選好知識が不足していることがヲ格とニ格におけるゼロ照応解析性能を下げていると考えられる。
最後に本実験とは直接関係しないが,データセッ卜作成時に,NTC 1.5 上でニ格がアノテーションされていない事例を発見した。これはNTC 1.5 のポリシーによるものだと考えられる.今回抽出した述語のうち,二格がアノテーションされていない述語は 89 個であるが,そのうち 16 個はこのような事例であった.そのため 4.1 節におけるエラーのうち,一部は違うポリシーであれば正解になる可能性がある.しかしながら,そのよう事例を除いたとしてもエラー数は依然多いため,エラーの根本的な原因を探索する試みには大きな意義があるといえる。
## 8 おわりに
本研究では GPT-4 を自然言語処理の基礎解析タスクの 1 つであるゼロ照応解析で評価し,最先端モデルに対して性能が著しく劣ることを明らかにした。 さらにその原因を解明すべく,エラー事例分析により格フレーム知識と選択選好知識の不足が原因であるという仮説を立て,実験を行った. 実験の結果と分析から,GPT-4 のヨ格とニ格に関する格フレーム知識と,二格に関する選択選好知識の不足により, ゼロ照応解析の性能を下げていると示唆された.
## 謝辞
本研究の有意義なコメントをいただいた Tohoku NLP Group の守屋彰二氏,塩野大輝氏,矢野一樹氏に感謝いたします。本研究は JSPS 科研費 $21 \mathrm{~K} 21343$ の助成を受けたものです.
## 参考文献
[1] Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, and Kentaro Inui. Pseudo zero pronoun resolution improves zero anaphora resolution. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3790-3806, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[2] OpenAI. GPT-4 technical report. March 2023.
[3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019.
[4] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[5] 栗原健太郎, 河原大輔, 柴田知秀. Jglue: 日本語言語理解ベンチマーク. 言語処理学会第 28 回年次大会, 2022.
[6] Ryu Iida, Mamoru Komachi, Kentaro Inui, and Yuji Matsumoto. Annotating a japanese text corpus with PredicateArgument and coreference relations. In Proceedings of the Linguistic Annotation Workshop, pp. 132-139, Prague, Czech Republic, June 2007. Association for Computational Linguistics.
[7] Ryu Iida, Mamoru Komachi, Naoya Inoue, Kentaro Inui, and Yuji Matsumoto. NAIST Text Corpus: Annotating Predicate- Argument and Coreference Relations in Japanese, pp. 1177-1196. Springer Netherlands, Dordrecht, 2017.
[8] Tomohide Shibata and Sadao Kurohashi. Entity-centric joint modeling of Japanese coreference resolution and predicate argument structure analysis. In Iryna Gurevych and Yusuke Miyao, editors, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 579-589, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[9] Masato Umakoshi, Yugo Murawaki, and Sadao Kurohashi. Japanese zero anaphora resolution can benefit from parallel texts through neural transfer learning. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wentau Yih, editors, Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1920-1934, Punta Cana, Dominican Republic, November 2021. Asso- ciation for Computational Linguistics.
[10] Hirotoshi Taira, Sanae Fujita, and Masaaki Nagata. A Japanese predicate argument structure analysis using decision lists. In Mirella Lapata and Hwee Tou Ng, editors, Proceedings of the $\mathbf{2 0 0 8}$ Conference on Empirical Methods in Natural Language Processing, pp. 523-532, Honolulu, Hawaii, October 2008. Association for Computational Linguistics.
[11] 大輔河原, 禎夫黒橋. 高性能計算環境を用いた web からの大規模格フレーム構築. 情報処理学会研究報告 = IPSJ SIG technical reports, Vol. 2006, No. 1, pp. $67-73,012006$.
## A ゼロ照応解析実験のプロンプト
5-shot,zero-shot それぞれのプロンプト例とその出力を表 6 と表 8 に示す.
表 6 zero-shot におけるプロンプトの例. 本文部分は 9510ED-0016-951012044.ntc より抜粋.
## B GPT-4 のバージョンとパラメータ
本研究で使用したモデルのバージョンは gpt-4-0613,各パラメータの值は temparature が 1.0 , Top P が 0.8 , Max length が 100 であった.
## C 格フレーム知識問題の作成手順
以下の (1) から (5) までの操作を 100 回(100 述語分)完了するまで繰り返す. (1) 述語を NTC 1.5 の test からランダムに抽出. (2) 述語が「A は B だ」の B であるような場合と,抽出した述語の原型の表層形と同じ述語がすでに問題として作成されている場合は操作を終了して 1 に戻る. (3) 述語をスーパー大辞林で検索し,ガ格・ヨ格・ニ格のヒントが含まれていないような語釈を抽出し,問題の手がかりとなる部分は削除・改変する ${ }^{4)}$.この際,スー パー大辞林の検索でヒットしない場合操作を終了して 1 に戻る。また,格フレームの手がかりとなる部分を削除する操作を加えると語釈が歪んでしまう場合は操作を終了して (1) に戻る. (4) 格フレームで述語を検索し,3で抽出した語釈の場合の格フレームを特定し, 正解を作成. この際,語が格フレームに収録されていない場合,もしくは語釈に適した格フレームがない場合は操作を終了して (1)に戻る. (5) ガ格・ヨ格・二格,それぞれを聞くプロンプトを作成.この手順は著者ら 3 名で行った. まず, 1 名が一連の操作を行った後,(5) で作成した正解が妥当なものであるか 2 名が確認して適宜修正した。
## D 知識模証のプロンプト
GPT-4 の格フレーム知識と選択選好知識を検証する際に使用したプロンプトとその出力例を表 7 に示す.
4)例えば,「少ない」はスーパー大辞林において「数や量が小さい.」という語釈文であるが,「数や量が少ない」と置き換えても意味が変化しないため,「少ない」がガ格をとると推測できてしまう. このような手がかりは GPT-4 が本来持っている知識を引き出す問題としてノイズになるため削除した.表 7 知識の検証実験に用いたプロンプトプロンプト:「笑う」という述語が「に」という格助詞をとるかどう例を3つ答えてください。ただし、笑う」は「あざける。嘲笑する。 という意味の場合を考えてください。また、格助詞をとるとは、格助詞十述語という表現ができることを表し、真体的には「〜に笑う」という表現が日本語としてあり得るものかを聞きたいです。しかし、「先汭や「帰り纪」といった時間を表す表現や、「〜ように」や「遠巻きに」といった様態を表す表現は「に」をとるとみなしません。
出力: はい
1. 彼は彼女の失敗に笑った。
2. 私は彼の㝋談に笑った
3. 私たちはその皮肉なコメントに笑った。
表 8 5-shot におけるプロンプトの例.
プロンプト: 以下の文章内で、「**」で囲まれた「見て」という述語は、
誰をもしくは何を、見るか分かるでしょうか。もし、「〜を見る」に
式で答えてください。述語が受け身形の場合は、原型の述語に対卞る
「〜を見る」の形で考えてください。「〜を見る」という表現が不自曻
だったり、具体的なフレーズがこの本文からでは推測できない場合は該当なし」と答えてください
【本文】
この数字を**見て**ほしい。答えは数字を見る
以下の文章内で、「**」で囲まれた「知ら」という述語は、誰を、もし
ください。述語が受け身形の場合は、原型の述語に対する「〜を知るの形で考えてください。「〜を知る」という表現が不自然だったり、真体的なフレーズがこの本文からでは推測できない場合は「該当なし」 と答えてください。
【本文】
日本の政府開発援助の総額が、世界最大級だとはよく**知ら**れている。答えは総額を知る
以下の文章内で、「**」で囲まれた「言えば」という述語は、誰を、も
るフレーズがあれば、そのフレーズを「〜を言う」という形式で答えてください。述語が受け身形の場合は原型の述語に対する名然だっ言 b、具体的なフレーズがこの本文からでは推測できない場合は該当なし」と答えてください。
【本文】
「言うは銀、默すは金」ということかざが英語にある。旦本語流に**言
以下の文章内で、「**」で囲まれた「訂正し」という述語は、誰を、も
する「〜艺訂正する」の形で考えてください。「〜を訂正する」という表現が不自然だったり、具体的なフレーズがこの本文からでは推測できない場合は「該当なし」と答えてください。
【本文】
おわびして***訂正し**ます。答えは誤りを訂正する
以下の文章内で、「**」で囲まれた「なる」という述語は、誰を、もし
ください゙か述語が受け身形の場合は、原型の述語に対する「〜をなるの形で考えてください。「〜をなる」という表現が不自然だったり、具体的なフレーズがこの本文からでは推測できない場合は「該当なし」 と答えてください。
【本文】
もう二十日近くに**なる**。答えは該当なし
以下の文章内で、「**」で囲まれた「出し」という述語は、誰をもし
フレーズがあれば、そのフレーズを「〜を出す」という形式で答えての形で考えて述語が受け身形の場合は、原型の述語に対然だったり、具体的な゙フレてズがこの本文からでは推測できない場合は「該当なし」 と答えてください
【本文】
事件報告を受けた直後の大蔵省の事情聴取も、大和銀施設で食事、ビー ル付きで行われたという。大蔵省は大和銀に対して、近く業務改善命
は**たいところだ。
答えは
出力: 業務改善命令を出す | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-3.pdf | # LLM 生成コンテンツの SEO 観点での品質評価
益子怜 ${ }^{1}$ 木村賢 ${ }^{2}$ 越仲孝文 ${ }^{1}$
1 横浜市立大学大学院データサイエンス研究科
2 サイバーエージェント SEO ラボ
y235620a@yokohama-cu.ac.jp
## 概要
様々な分野で大規模言語モデル (LLM) の活用が進む中, Webコンテンツ制作における LLM の有用性に着目する. 検索エンジン最適化 (SEO) においてしばしば行われる,ユーザによるコンテンツの主観評価 (ユーザ評価) のスキームにならい, LLM が生成するテキストコンテンツを定量評価する. Google 検索により収集したコンテンツにユーザ評価ラベルを付与したデータからユーザ評価予測モデルを構築し,いくつかの LLM (GPT-3.5, GPT-4, CyberAgentLM2) が生成したコンテンツの自動ユーザ評価を行った. 結果, 文字数が比較的少ない LLM 生成コンテンツはユーザ評価において不利であるものの, 10 段階評価で 7, 8 程度という高品質のコンテンツを生成できることを確認した。
## 1 はじめに
ChatGPT に象徵される大規模言語モデル (LLM) は, 様々な業務で活用が進められている. Webコンテンツ制作もその一つであり, 今やネット上では AI 生成コンテンツと思われる (ほとんど違和感はないがやや不自然な) 文体の Web ページもみられる. Web コンテンツ制作の最重要目的はページビュー 向上, すなわちできる限り多くの人々に閲覧されること,ひいては Google などの検索エンジンで上位に表示されることであり, そのために検索エンジン最適化 (SEO) と呼ばれる方法論が研究されている. SEO において, 検索エンジンでの自ページの表示順位はもちろん重要な指標であるが, ユーザ評価, すなわちユーザがページの内容や品質の良し悪しを 10 段階等で評価した主観評価結果も重視される. 現在の LLM が生成するコンテンツがユーザ評価でどの程度の水準にあるのかはいまだ明らかではない. そこで本研究では, ユーザ評価ラベルが付与された Web テキストコンテンツを用いてユーザ評価予測
モデルを構築し,いくつかの LLM (GPT-3.5, GPT-4, CyberAgentLM2) が生成したコンテンツの自動ユー ザ評価を行う.これにより, 既存のコンテンツと比較して現在の LLM 生成コンテンツがどの程度の品質を有するのかを明らかにする. さらに, ユーザ評価における LLM 間の比較結果も示す.
## 2 関連研究
言語モデルを利用したランキング予測は, Nogueira ら [1] が事前学習モデルの一つである BERT [2] の有用性を示して以来, 多く研究されている. T5 [3] を利用した研究 [4] では sequence-to-sequence モデルを用いて「Query: [Q] Document: [D] Relevant:」の形で入力,クエリとテキストの関連がある場合には true を出力, 関連がない場合には false を出力する様に学習することで, エンコーダのみのモデルより優れていることを示した. ChatGPT の登場以降では LLM に対してプロンプトエンジニアリングやファインチュー ニングを行い,レコメンドシステムなどに利用する研究が行われ, 有用性が示されている [5].
また, LLM を用いたデータ拡張の手法も研究されている.クエリの生成を行なった研究としては InPars-v2 [6] が挙げられる. GPT-J-6Bを用いて, テキストに対するクエリを生成, さらに MS MARCO デー タセット [7] でファインチューニングした monoT5 を用いて関連性の高いクエリとテキストのぺアのみを抽出して追加の訓練データセットとして利用することで, BEIR ベンチマーク [8] において最先端のものと同等の結果を獲得した.テキストの生成では Askari ら [9] の研究が挙げられる. クエリに関連するテキストを ChatGPT で生成することにより訓練データセットを作成, ドメイン外タスクにおける有用性を示した。
本研究では, Google 検索によってクエリと文書のペアを収集し,その検索結果の妥当性を測るためのユーザ評価を行う。さらにそれらを用いて任意の文
図 1 Google 検索で収集したテキストの文字数 (平均: 約 4,811 文字, 中央值: 3,374 文字)
書に対してユーザ評価を得るユーザ評価予測モデルを構築する. LLM (CyberAgentLM2, GPT-3.5, GPT-4) を用いてコンテンツを生成し,ユーザ評価の比較を試みる. 予測モデルはペアワイズ (pairwise), リストワイズ (listwise) などのランキング学習 (learning to rank)の指標に基づいて最適化する.すなわち, Google 検索によってクエリとの関連性が高いとされた文書に対して,ユーザ評価によるリランキングを行うモデルを構築し, 生成コンテンツの評価を行うことが本研究の目的である. なお, LLM が生成するテキストの品質を調べる研究としては, 尾崎ら [10] がオンラインディベートフォーラム kialo から議題と立論と模範反論のセットを収集し, LLM で生成した反論と比較した例があるが, SEO というユースケースで予測モデルを用いた自動品質評価を行う試みは, 筆者らが知る限り本研究が最初である。
## 3 実験の概要
## 3.1 ユーザ評価データ
情報を求める際に検索されるクエリ (インフォメーショナルクエリ) 100 件 (訓練データ 60 件, 検証データ 20 件, テストデータ 20 件) に対し, 上位 50 件ずつのテキストを取得した. 60 文字以下のテキストの除去を行なった結果計 4,594 件のテキストを取得した. テキスト,クエリの文字数を図 1 , 図 2 に示す.テキストの平均の長さは約 4,811 文字, 中央值が 3,374 文字,クエリの平均の長さは約 7 文字であった. クエリは質問形式の文ではなく1つか複数の単語である. 取得したデータセットに対し, 1 つのテキストに対して 5 人ずつのユーザー評価を行い, その平均
図 2 Google 検索に用いたクエリの文字数 (平均: 約 7 文字)
図 3 各テキストの 5 人のユーザ評価の平均の分布 (平均:約 7.3)
をテキストのユーザ評価とした. ユーザ評価は「検索需要にあっているか?」,「ページ・サイトの品質は高く信頼できるか?」,「使いやすいか?」の 3 点に基づいて, 1〜10の 10 段階評価で行った. 大きいほど高評価とした. 次にユーザ評価の分布を図 3 に示す. 平均は約 7.3 である.
## 3.2 ユーザ評価予測モデル
LINE 社が Hugging Face 上で公開している linecorporation/japanese-large-lm-3.6bを利用した. モデルの最大トークン数が 2,048 トークンであるため, デー タセットの 50\%以上は全てのテキストを含めて学習が可能である. 最大トークンを超える長さのテキストは, 2,048 トークンの位置で打ち切った. 学習の際には QLoRA [11]を用い, LoRA の行列のランクを 8 とし, 注意層を適応化した。
クエリを $q$, 対応するテキストを $d_{q}$ とし,「検索ク
図4 ユーザ評価予測モデル
USER: 以下のクエリに対する記事を生成してください。
クエリ:q
キーワード:keyword 1, keyword $_{2}, \cdots$, keyword $_{10}$ ASSISTANT:
図 5 コンテンツの作成に利用したプロンプト
エリ: $q$ テキスト $: d_{q} \perp$ の形で入力を行い, 最後のトー クンの隠れ層の出力をフィードフォワードニューラルネットワークに入力してスコアを算出する. バッチサイズを 12 とし, 損失関数は approxNDCG [12] を用いてリストワイズ形式で学習した. ユーザ評価予測モデルの概略を図 4 に示す. ユーザ評価をランキング形式で学習するため, モデルの出力はユーザ評価ではなく,スコアとなっている点に注意.
なお, 上記モデルの他に BERT や T5 を, またポイントワイズやペアワイズなどの形式の損失関数も評価した上で, 最良のモデルを選択した.
## 3.3 コンテンツ生成
サイバーエージェント社が Hugging Face 上で公開している cyberagent/calm2-7b-chat (以下, CALM2)を利用してコンテンツを生成した. 生成時のパラメー タは最大長を 2,048 トークン,サンプリング法を用い, それ以外のパラメータは Transformers の generate 関数の初期設定とした. 生成の際に利用したプロンプトを図 5 に示す. ユーザ評価データとは別に用意したインフォメーショナルクエリ 100 件に対し 1表 1 実験結果
コンテンツずつ, 合計 100 件のコンテンツを生成, ユーザ評価予測モデルを利用してスコアを付与した. SEO においては一般に, コンテンツ作成の際にはクエリに対応したキーワードを含めることが重要と知られている。そこで,コンテンツを生成する際にクエリだけでなく,キーワードを与えた. 各クエリの Google 検索における上位 50 件のテキストを取得し, MeCabを用いて形態素解析を行い, 名詞, 形容詞, 動詞を取得. TF-IDFを用いてテキストごとに単語重要度を算出, 各クエリに対応する検索結果の単位で単語重要度の平均をとり,上位 10 単語をキーワードとした.コンテンツ生成に利用した 100 件のクエリと Google 検索から取得したテキストには,ユーザ評価のラベルが付いていないため, ユーザ評価予測モデルの訓練や評価には利用していない (できない). また, 比較のため, GPT-3.5, GPT-4 を用いて同様にコンテンツの生成と評価を行なった. 生成コンテンツの例を付表で示す。
## 4 実験結果と考察
ドキュメント検索タスクにおける評価指標の一つである Normalized Documented Cumulative Gain (NDCG)を用いてユーザ評価予測モデルの評価を行なった. NDCG の関連性スコアとしてユーザ評価を用い, クエリごとに NDCG@10を計算し, その平均をモデルの評価とした. 実験の結果を表 1 に示す. NDCG@10において0.689を獲得し, ユーザ評価予測モデルの妥当性が確認できる.
次にテストデータおよび生成したコンテンツに対する予測スコアの分布を図 6 に示す. また, 同様に各コンテンツの文字数の分布を図 7 に示す.「評価: $n$ 」 はテストデータにおけるユーザ評価の小数第一位を四捨五入した值を $n$ とし,$n$ ごとのスコアの分布を表す. 評価: 10 , 評価:3 以下は少ないため, それぞれ評価:9, 評価:4 にまとめた. また, 第 3 四分位点 + 四分位範囲の 1.5 倍を超える値, 第 1 四分位点 - 四分位範囲の 1.5 倍を下回る値を外れ値とした.テストデー タではユーザ評価が高いほど好スコアを獲得していることが確認できる. 生成コンテンツは評価:7 と評価:8 の間程度のスコアとなっていることが確認できる. また, 高スコアのコンテンツはほとんど生成でき
図 6 ユーザ評価予測モデルによる予測スコア (「評価: $n$ 」 はテストデータにおけるユーザ評価の小数第一位を四捨五入した值を $n$ とし, $n$ ごとのスコアの分布を表す)
図 7 テストデータのユーザ評価ごとの文字数と生成コンテンツの文字数
ていないことが確認できる. GPT-4 と他の 2 つのモデルの精度に有意な違いがあるかどうかを確認するため, 対応のある $\mathrm{t}$ 検定を行なったところ $\mathrm{p}$ 值が 0.05 以下となり, 有意にスコアが高いことが確認された. GPT-3.5 と CALM2 では有意な差は認められなかった. ただ, CALM2 が生成するコンテンツはばらつきが大きく, 時に評価 9 以上の高品質なテキストが出力されることもあった.
最後にユーザ評価と文字数の関係について確認した. 図 6, 図 7 の結果に基づいてユーザ評価予測モデルの予測スコアと文字数の相関係数を計算したところ, 0.40 と正の相関が確認された. また, LLM により生成されたコンテンツはテストデータと比較すると文字数が短いにもかかわらず, ユーザ評価 7,8 程度のスコアを獲得している. このことから, 評価が高いコンテンツを出力することができているが, コンテンツの文字数が足りていない可能性が考えられる.
## 5 おわりに
本研究では Google 検索から取得したテキストに対するユーザ評価データを用いて, 任意のテキストコンテンツのユーザ評価を予測するモデルを構築し, LLM (CALM2, GPT-3.5, GPT-4) で作成したコンテンツの評価を行なった. ユーザ評価予測モデルを用いて評価をすることで, 10 段階のユーザ評価で $7 \sim 8$程度のスコアのコンテンツを生成できることが確認できた. また, ユーザー評価予測モデルの予測值と文字数に正の相関があること, および生成コンテンツの文字数はテストデータと比較して短いことが確認できた. 生成コンテンツの品質は比較的高いことが示唆される。一方で, より文字数の多いコンテンツを生成できることが必要であり, 今後の課題である.
## 参考文献
[1] Rodrigo Frassetto Nogueira and Kyunghyun Cho. Passage Re-ranking with BERT. CoRR, Vol. abs/1901.04085, , 2019.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019.
[3] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[4] Rodrigo Nogueira, Zhiying Jiang, Ronak Pradeep, and Jimmy Lin. Document Ranking with a Pretrained Sequence-to-Sequence Model. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 708-718, Online, November 2020.
[5] Wenqi Fan, Zihuai Zhao, Jiatong Li, Yunqing Liu, Xiaowei Mei, Yiqi Wang, Zhen Wen, Fei Wang, Xiangyu Zhao, Jiliang Tang, and Qing Li. Recommender Systems in the Era of Large Language Models (LLMs), 2023. arxiv:2307.02046.
[6] Vitor Jeronymo, Luiz Bonifacio, Hugo Abonizio, Marzieh Fadaee, Roberto Lotufo, Jakub Zavrel, and Rodrigo Nogueira. InPars-v2: Large Language Models as Efficient Dataset Generators for Information Retrieval, 2023. arxiv:2301.01820.
[7] Tri Nguyen, Mir Rosenberg, Xia Song, Jianfeng Gao, Saurabh Tiwary, Rangan Majumder, and Li Deng. MS MARCO: A Human Generated MAchine Reading COmprehension Dataset. In Tarek Richard Besold, Antoine
Bordes, Artur S. d'Avila Garcez, and Greg Wayne, editors, Proceedings of the Workshop on Cognitive Computation: Integrating neural and symbolic approaches 2016 co-located with the 30th Annual Conference on Neural Information Processing Systems (NIPS 2016), Barcelona, Spain, December 9, 2016, Vol. 1773 of CEUR Workshop Proceedings. CEUR-WS.org, 2016.
[8] Nandan Thakur, Nils Reimers, Andreas Rücklé, Abhishek Srivastava, and Iryna Gurevych. BEIR: A Heterogeneous Benchmark for Zero-shot Evaluation of Information Retrieval Models. In J. Vanschoren and S. Yeung, editors, Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks, Vol. 1. Curran, 2021.
[9] Arian Askari, Mohammad Aliannejadi, Evangelos Kanoulas, and Suzan Verberne. A Test Collection of Synthetic Documents for Training Rankers: ChatGPT vs. Human Experts. In Proceedings of the 32nd ACM International Conference on Information and Knowledge Management, CIKM '23, p. 5311-5315, New York, NY, USA, 2023. Association for Computing Machinery.
[10] 尾崎大晟, 中川智皓, 内藤昭一, 井之上直也, 山口健史, 新谷篤彦. 大規模言語モデルによる高品質反論文の自動生成. 人工知能学会全国大会論文集, Vol. JSAI2023, pp. 4Xin111-4Xin111, 2023.
[11] Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, and Luke Zettlemoyer. QLoRA: Efficient Finetuning of Quantized LLMs, 2023. arxiv:2305.14314.
[12] Sebastian Bruch, Masrour Zoghi, Mike Bendersky, and Marc Najork. Revisiting Approximate Metric Optimization in the Age of Deep Neural Networks. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '19), pp. 1241-1244, 2019.
CALM2 以下は、AI 技術を活用した行政取り組みに関する記事の具体例です。 1. AIで自治体の業務効率化を進める動き行政業務において、AI 技術の活用が一層進んでいます。例えば、自治体は、チャットボットを業務に導入することで、住民からのさまざまな問い合わせに迅速かつ正確に回答することができます。また、行政手続きのオンライン申請に対応するAI-OCRを噵入することで、住民の入力情報の正確性を高めることも可能です。さらに、道路の渋滞予測などのビックデー タ分析にも AI 技術を活用することで、合理的な道路交通計画を策定することもできます。今後も自治体による AI 技術を活用した行政取り組みが期待されています。
2. 北海道庁が $\mathrm{AI}$ 活用した行政手続きのオンライン申請を推進
北海道庁は、2022年4月ょり市民向けのオンライン申請システムを導入しました。24 時間 365 日、いつでもどこからでも申請可能なことから、多くの住民が利用しています。これは、従来の紙による申請から、AI-OCR と入力支援AIを活用したオンライン申請に変えていくというものであり、業務の効率化と市民の利便性向上に向けた取り組みとして注目されています。
3. AI とチャットボットによる住民サービスの向上事例と課題オンライン申請システムの導入による市民サービスの向上や、AI 技術を駆使したチャットボットの導入による問い合わせ対応の迅速化など、行政におけるAI 技術の活用が進んでいます。しかし、一部の自治体では、AIやチャットボットの導入に苦戦しているという声も上がっています。これらの課題を解決するためには、AIやチャットボットに対する理解を深めた職員の育成や、市民向けの説明会の実施など、行政と住民の双方が協力していく必要があります。
4. AIによる行政手続きの転記作業自動化で人的ミスの防止 (文字数:782)
GPT-3.5 AI が自治体の行政業務に導入される事例と活用方法がどのようになっているかを見ていきます。近年、自治体ではDX(デジタルトランスフォーメーション)の一環として AIを積極的に活用し、行政サービスの効率化や住民へのより良いサポートを目指しています。例えば、自治体のウェブサイトや市民サービスセンターでチャットボットを活用することで、住民からのさまざまな問い合わせに即座に回答することが可能になります。また、AIを活用守ることで、住民のニーズや要望を分析し、より効果的な施策の立案や予算の配分を行うことができます。
さらに、行政業務全般において AIを活用することで、データの分析や業務の効率化が図られ、スムーズな行政運営が可能となります。具体的な事例としては、人口動態の予測や福祉施策の推進などが挙げられます。
このように、AIの導入により自治体の行政業務が効率化され、住民へより良いサービスが提供されることで、地域全体の発展が促進されると期待されていきす。AI の活用は今後も進み、さらなる行政サービスの向上に貢献することでしょう。(文字数:468)
GPT-4 タイトル:AIを軸にデジタルトランスフォーメーションを進める自治体の行政取り組み近年、AI(人工知能)は様々な分野で注目されていますが、行政の世界にも大きな変革の波が押し寄せています。自治体レベルでのデジタルトランスフォーメーション (DX) の進展を促進寺る中、AIの活用により業務の効率化や住民サービスの向上が期待されています。本記事では、自治体における AI 導入の事例とその取り組みの詳細について解説していきます。 \#\#\# 自治体における $\mathrm{AI}$ 導入事例
\#\#\#\#チャットボットを活用した問い合わせ対応
多くの自治体では、住民からの問い合わせ対応業務にチャットボットが導入されています。 24 時間 365 日、住民の疑問に応えるチャットボットは、待ち時間を減らし、より手軽绩報を得ることができるようになりました。例えば、住民登録の手続きや各種証明書の発行方法、税金の納付に関する質問など、基本的な問い合わせに即座に答えることが可能です。
\#\#\#\# 行政業務における文書の自動作成
$\mathrm{AI}$ 用いて、行政文書の自動作成システムが開発されている自治体もあります。議会質問の回答書など、特定のフォーマットに基づいた文書を AIが自動生成し、職員は細部の修正や追記の作業搏念することができます。これにより、業務の速度と精度が向上し、職員の負担を大幅に軽減しています。
(以下略, 文字数:1,217) | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-4.pdf | # 物語文に対する大規模言語モデルの読解能力の分析
板橋康知 ${ }^{1}$ 松林優一郎 ${ }^{1,2}$
1 東北大学 2 理化学研究所
itabashi.yasutomo.q7@dc.tohoku.ac.jp y.m@tohoku.ac.jp
## 概要
GPT-4 に代表される大規模言語モデル(LLM)は,知的に高度な人間のための資格試験においても高い能力を示している。本研究では、LLM の心情理解能力を評価する目的で,公立高校入試の国語物語文問題における,LLM の読解能力を調査した。調査対象として, ChatGPT(GPT-3.5-turbo, GPT-4)を調査対象とし、2017 から 2023 年の物語文読解問題から 108 問の 4 択問題をランダムに選び分析した。その結果、GPT-4 はランダム選択期待值を大きく上回り、GPT-3.5-turbo はわずかに上回った。両モデルは正解した問題の解答理由やテキスト参照箇所も適切であった。分析の結果, GPT-4 は特に文章全体の表現の特徴を問う問題に強い一方で,局所的な部分を参照し読み解く問題においでは,能力の向上が求められることが分かった.
## 1 はじめに
大規模言語モデル (LLM) は広範なテキストデー タの学習により、複雑な言語表現を理解し、人間の言語運用を模倣する能力を高い水準で獲得している.これらのモデルは, 様々な一般的タスクだけでなく,実際に人間が受験するような試験においても人間の水準に匹敵し注目を浴びている [1]. 英語に対しては,米国医師免許試験(The USMLE)やアメリカの司法試験である Uniform Bar Exam(4 択問題) において合格ラインかそれを大きく上回る水準に到達している $[2,3]$. 日本語においても,一般的な言語理解能力のベンチマークである JGLUE において, GPT-4 が人間の回答に非常に近い優れた成績を得ることが報告されているほか [4], 日本の医師国家試験において合格水準を上回ったと示されている [5].
他方,自然言語処理分野では,大規模言語モデルが心情・感情を理解する能力を持っているのかについての研究にも注目が集まっている. 他者の心の状態,目的,意図,知識,信念,志向,疑念などを推測する心の機能を,認知科学の分野で「心の理論 (Theory of Mind)」と呼び,この能力は効率的かつ効果的なコミュニケーションのために重要とされている [6]. Choi らは「心の理論」は大規模言語モデルを含む現代の人工知能にとっての課題であると指摘している [7]. 大規模言語モデルが人間とのコミュニケーションや人間間の相互理解を助けるような応用の場面では,「心の理論」のような社会的知能を獲得することが必要と言える.
この分野での研究例として, GPT-3 は人間の 3 歳児に,そして GPT-4 は人間の 7 歳児に匹敵する「心の理論」の能力を持っていると示されている [8]. しかし,大規模言語モデルの「心の理論」に関する研究はほとんどが英語での設定で,かつ,サリーとアン課題 [9] のような短文の設定で行われており,長い文脈の中から人間の心情を理解する能力を測った研究はまだほとんど行われていない。
本研究では,公立高校入試国語の物語文という多くの受験生が実際に受ける試験問題を用いて,最新の大規模言語モデルが人間にとって必要とされる心的な読解能力を備えているかを調査することを試みる。公立高校入試では多くの都道府県で出題の方針や各問のねらいが公開されており,国語の物語文については,例えば東京都では「叙述や描写などに即して,語句や文の意味,登場人物の様子,心情などを正しく理解する能力をみる」[10],岡山県では 「登場人物の言動の意味や心情を文章の展開に即して理解したり,理解したことを適切に表現したりする力をみる」としており [11],他者の心的状態への理解力をはじめとした能力を測る問題だと言える。本研究では物語文を扱うことによって,従来研究より広範かつ複雑な文脈下における LLM の心情理解能力について分析する.
モデルによる出力の評価には, 解答の正誤のほか,回答根拠の妥当性,受験者の正答率との比較,問いの内容別の性能などの観点から詳細な分析を与えた。結果として,問題全体としてはラン
本文 : 中学一年生の「わたし」は〜
設問 : (1)の時の「わたし」の心情を説明したものとして最も適当なものは、ア〜エのうちのどれか。
解答理由・本文の根拠箇所を明示して答えなさい
ア〜 イ
## 妥当な根拠をもとに適切に解答できるか?
図 1 実験の概要図
ダム選択期待値の $25 \%$ GPT-4 は大きく上回り、 GPT-3.5-turbo はわずかに上回った。正答率ごと,問いの内容ごとについては,特定のカテゴリーの問題について正解率が高い又は低いといった明確な結果は見られなかった.また,両モデルは正解した問題の解答理由やテキスト参照箇所も適切であり,少なくとも正解した問題に関しては論理的に破綻した根拠は見られなかった。分析の結果,gpt4 は特に文章全体の表現の特徴を問う問題に強い一方で,局所的な部分を参照し読み解く問題においでは,能力の向上が求められることが分かった.
## 2 分析対象
データセット分析の対象データとして,一般に公開されている公立高校入試国語の物語文の問題を利用する.実際の入試においては受験生の学力を測る指標が多岐に渡るため,国語の物語文では人物の心情を問う問題以外の問題も含まれている. 本研究では,単に漢字の読み書きや慣用句の意味を問うといった読解を必要としない問題は調査対象から除外した. また,一般に LLM に入力することが困難な図表を元に解答する問題, LLM が指定字数通りに出力することが困難な記述式問題についても除外することとし, テキストのみで問題の入力が可能でかつ読解を必要とする記号選択問題を扱うこととした。 また,人間の正答率との比較を行う目的で,正答率が公開されている都道府県の問題を対象とした。以上の条件にもとづき,2017 年度~2023 年度の問題のうち, 4 択問題となっているものをランダムに 108 問抽出した.このような問題の具体例を図 1 の上部に示す. 問題は抜粋された物語本文と設問,選択肢からなる,モデルに与えられるタスクは,設問に対し適切な選択肢を一つ選択することである。この際,我々の実験では後の分析のために回答理由や
図 2 プロンプトの概要.スペースの都合上,実際の問題の一部を(略)とした。
参照した本文箇所も出力させるが,実際の問題にはこのような要件は含まれてはいない。
問題の分類モデルが出力する解答の正誤について,より詳細に分析するため,分析対象の問題を人間の正答率別,問題類型別に分類した. 人間の正答率別については,10\%刻みに 10 の区間に分類した.結果として,0\%〜20\%の区間が 0 問,30\%〜と $40 \%$ の区間がそれぞれ 5 問, $50 \%$ ~から $80 \% \sim$ の 4 つの区間がそれぞれ 20 問, $90 \%$ の区間が 18 問となった. 問題の類型化に関しては,読み手が読解の中で生成するとされる推論としてよく用いられる 13 タイプの推論 [12] に基づいて実験者が人手で行った. 分類結果は, Class 1: 登場人物の行為意図や動機,目的への推論(例:A さんが〜のような行動を取った目的を答えなさい。)が 1 問,Class 6: 登場人物の心情に対する推論(例:~の時の Aさんの気持ちを答えなさい。)が 74 問,Class 8: 名詞句が具体的に示すものへの推論(例:ここでの「トロフィー」はどのようなものを例えていますか。)が 5 問,Class 11: 状況,特性,位置,信念等への推論 (例:〜から伺える Aさんの刺紼に対する考えを答えなさい。)が 12 問,Class 13: 筆者の意図や考えへの推論(例:~によって筆者は何を表現しようとしていますか。)が 12 問であり,分析対象とした物語文の問題は心情理解の問題を $69 \%$ 程度含み,その他,意図や状況を把握させる問題を含む。
## 3 回答モデル
本研究では,大規模言語モデルに上述の物語文に関する読解問題を解かせ,その解答や解答理由を分析することで,妥当な根拠をもとに解答できている
図 3 人間の正答率ごとの正解・不正解数 (GPT-3.5-turbo)
図 4 人間の正答率ごとの正解・不正解数 (GPT-4)
かや,どのような問題に正答又は誤答するかの傾向を調べる. 分析対象のモデルには,社会適用が急速に進みつつある GPT-3.5-turbo,GPT-4 を選択した。
プロンプト抽出された問題を, ChatGPT が読み取り可能な形式に成形し, プロンプトとして入力する. 具体的には,実際の入試問題では棒線部で示される部分があるが,このような表示は ChatGPT では読み取り不可能のため,鉤括弧を用いたような表示に変更する.また,ChatGPT の解答が,ランダムに生成された解答ではなく,根拠に基づいた妥当な解答であるか確認するため,解答の理由と参照した本文中の箇所を示させるようなプロンプトを追加した. プロンプトの概要を図 2 示す.
出力上記プロンプトに対して出力された解答について,選択肢については正答と照らし合わせ,解答の妥当性については解答理由と参照箇所をもとに,許容可能か否かを著者らが人手で評価する.
## 4 結果と考察
## 4.1 結果
全体としての正解率は,GPT-4 が 108 問中 94 問正解となり,正解率 $87.0 \%$ とランダム選択によ
図 5 問題類型ごとの正解・不正解数 (GPT-3.5-turbo)
図 6 問題類型ごとの正解・不正解数 (GPT-4)
る期待值 $25 \%$ を大きく上回った. GPT-3.5-turbo は 108 問中 41 問正解となり,正解率 $37.9 \%$ となり, ランダム選択による期待値をやや上回る程度の結果となった. 解答の理由や本文の参照箇所を人手評価した結果,両モデルとも正解した問題については,明らかに誤った理由や参照箇所を出力するケースはなく,すべてのケースで許容範囲内の合理的な理由を持って正答していると判断された.
図 2, 図 3 には,人間の正答率別の正解数を示す. いずれのモデルについても,問題の難易度と正答率の間に意味のある相関は見られず,誤答はどの難易度にも傾向なく分布していた. したがって, 現状の LLM に関しては,人間にとっての難易度の高い問題と, LLM にとっての難易度の高い問題は必ずしも一致しないことがうかがえる.
図 4, 図 5 には,問題類型別の正解数を示す. 問題類型ごとについても同様に,特定の類型の問題について正解率が高いまたは低いといった明確な傾向はいずれのモデルにも見られなかった.
## 4.2 考察
より高い成績を示した GPT-4 において,どのような性質の問題を正解できたのか,またどのような問
題を間違える傾向にあるのかを分析した. まず,どの程度の問題まで正解できたのかについてであるが,今回扱った問題の中で最も人間正答率が低かったのは $30 \%$ -台の問題の計 5 問であった. GPT-4 はそのうちの 4 問に正しく解答することが可能であった. 正しく解答できた具体例を図 6 に示す. 図 6 における問 7 は, 本文全体を通して文章の表現の特徴を答える問題であり, 本文の中に示したような, 特徵が現れているいくつかの箇所を適切に参照して解答することができている。このような文章全体の表現の特徵を答える問題については図 6 の例以外にも GPT-4 はすべて正解しており, 解答が得意な種類の問題だと考えられる。
次に,どのような問題を間違える傾向にあるのかについてであるが,GPT-4 が解答を誤った問題は計 14 問あり,代表的なものをいくつか挙げる. 例えば,図7の問いは棒線部より少し前の発言を根拠にして解答するべき問題であるが,gGPT-が誤って選んだ解答のイに含まれる「他の仕事との兼業までして店を運営していこうと思っている「私」と言うのは,棒線部より後の発言の内容であり,物語の時間軸的にも整合性が合わない. 文章全体を通した理解に得意さを持つことが示唆された一方で,対照的に本来棒線部直前のみを参照すべき問題に関しては,棒線部の後ろまたは更に前まで参照したことで結果解答を誤っており, 印象的な結果となった. この結果は, 言語モデルが物語の時系列や物事の因果の関係性について,十分な理解を得られていない可能性を示唆する。
## 5 おわりに
本研究では,物語文における大規模言語モデルの読解能力について分析を行った. 結果として, 人間正答率別と問題類型別の両方において, 特定の問題についての解答能力に明らかな差は見られなかった. 一方で,GPT-4 の解答に着目すると,文章を広く捉えることに強みをもつ一方で, 反対に棒線部直前といった局所的な箇所を参照できず解答を誤る場合があるということが示され,今後のより詳細な分析を方向づける示唆が得られた. 今後は, 大規模言語モデルの出力に対しての妥当性を評価する手法についてより定性的なアプローチを行うことに加え,大規模言語モデルが問題に応じて柔軟に対応し解答能力が向上するような改善手法の追及について検討したい.
## 【本文】
(略)
まだ白い実をむしりとっている銀河と同じ年頃の子どもに、恵介は熟した赤い実を渡してやる。銀河と、少し前の銀河が四十三人集まっていると思えば、怒ったりはできなかった。 (略)
ふと恵介は思った。そういえば、銀河にはまだ一度も、俺の採りたて莓を食べさせてないな、 と。
(略)
銀河と同じだ。何かを口に入れる時にはまず、口を食べ物と同じ大きさに開く。
(略)
【設問】
問7この文章の表現の特徵について説明したものとして最も適当なのは、ア〜エのうちではどれですか。一つ答えなさい。
ア恵介と園览たちの短い会話を連続させることによって、園児たちに恐る恐る声をかける恵介のぎこちない態度を表現している。
イ園児たちを銀河と重ね合わせて描写することによって、園児たちを息子同様に温かく見守っている恵介の様子を表現している。
ウ比唋表現を使わないで具体的に説明することによって、園児たちのかわいらしい表情やしぐさをより生き生きと表現している。
エ物語中の出来事を常に恵介の視点で語ることによって、園児たちに対する恵介の行動や気持ちの变化を客観的に表現している。
【解答】
問7:適当な答えは「イ」です。【本文】では、恵介が園児たちを銀河と重ね合わせる描写が何度もあります。例えば、園児たちが菖を食べるシーンでは、恵介は銀河にも同じ体験をさせたいと考えるなど、彼の息子に対する思いやりが園児たちにも向けられています。これにより、恵介が園览たちを息子のように見守っている様子が表現されています。
(正答 : 1 正答率 : $36.0 \%$ )
図 7 GPT-4 が正解した正答率の低い問題の例. スペースの都合上,実際の問題および解答の一部を(略)とした.
図 8 GPT-4 が解答を誤った問題の例. スペースの都合上,実際の問題および解答の一部を(略)とした。
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020
[2] Tiffany H Kung, Morgan Cheatham, Arielle Medenilla, Czarina Sillos, Lorie De Leon, Camille Elepaño, Maria Madriaga, Rimel Aggabao, Giezel Diaz-Candido, James Maningo, et al. Performance of chatgpt on usmle: Potential for ai-assisted medical education using large language models. PLoS digital health, Vol. 2, No. 2, p. e0000198, 2023.
[3] OpenAI. Gpt-4 technical report. ArXiv, Vol. abs/2303.08774, , 2023
[4] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Nicoletta Calzolari, Frédéric Béchet, Philippe Blache, Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[5] Jungo Kasai, Yuhei Kasai, Keisuke Sakaguchi, Yutaro Yamada, and Dragomir Radev. Evaluating gpt-4 and chatgpt on japanese medical licensing examinations, 2023.
[6] Maarten Sap, Ronan LeBras, Daniel Fried, and Yejin Choi. Neural theory-of-mind? on the limits of social intelligence in large $1 \mathrm{~ms}, 2023$.
[7] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration, 2020.
[8] Michal Kosinski. Theory of mind might have spontaneously emerged in large language models, 2023.
[9] Simon Baron-Cohen, Alan M Leslie, and Uta Frith. Does the autistic child have a "theory of mind" ? Cognition, Vol. 21, No. 1, pp. 37-46, 1985.
[10] 東京都教育委員会. 令和 5 年度東京都立高等学校入学者選抜学力検査結果に関する調査報告書. 東京都教育委員会, 2023 .
[11] 岡山県教育委員会. 一般入学者選抜 [第 I 期] のための学力検査の概要. 岡山県教育委員会, 2023 .
[12] Arthur C Graesser, Murray Singer, and Tom Trabasso. Constructing inferences during narrative text comprehension. Psychological review, Vol. 101, No. 3, p. 371, 1994. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-5.pdf | # インタラクティブフィクションにおける大規模言語モデルの 性能
Zhuo Binggang $^{1}$ 村田真樹 ${ }^{1}$
1 鳥取大学 工学研究科
zhuobinggang@gmail.com murata@tottori-u.ac.jp
## 概要
インタラクティブフィクションにおける人工知能ェージェントは主に強化学習に基づいているが、近年の大規模言語モデルの急速な発展を考慮し、我々は大規模言語モデルを使用してインタラクティブフィクションタスクを解く方法を提案する。我々が選んだテストデータセットは TextWorld Commonsense (TWC) である。TWC ゲームでは、 エージェントのタスクは部屋を整理し、アイテムを適切な位置に配置することであり、タスクを上手く解くにはエージェントが「どのアイテムがどの位置に属するか」という常識を持つ必要がある。提案手法の性能をテストした結果、大規模言語モデルは微調整を受けずに、トレーニングセットで学習された強化学習ベースラインと同等ぐらいの性能を持っていることが分かる。具体的には、GPT4.0 one-shot は Easy および Medium レベルの総計 10 個の TWC ゲームですべてのタスクを完璧に遂行し、Hardレベルのゲームでは、提案手法(スコアは 0.52 )は性能の一番良いベースライン $(0.57)$ に負けたが、この差はプロンプトの改良によって補われる可能性がある。
## 1 はじめに
インタラクティブフィクション (IF)、あるいはテキストアドベンチャーゲームでは、プレイヤーの命令とエンジンの応答がすべて自然言語で行われる。言語を理解するだけでなく、高い得点を獲得するためには、人工知能 (AI) エージェントは他の複雑なスキル、例えば、長期記憶、計画、常識などを持つ必要がある。報酬がスパースであるため、過去のIF の分野における AI エージェントは主に強化学習技術を基にしていたが、近年の大規模言語モデル (LLMs) の急速な発展を考慮し、我々は LLMs を使用してIF タスクを解く方法を提案する。
我々は提案手法に基ついて GPT 3.5 turbo と GPT 4.0 turbo の性能を TWC データセット [1](詳しい説明は 4.1 節を参照してほしい)でテストした。実験の結果、LLMs は微調整なしで、トレーニングセットで学習された強化学習モデルと競り合う性能を持っていることが示された。
## 2 関連研究
## 2.1 データセット
人間プレイヤー向けに設計された IF は既存の $\mathrm{AI}$ エージェント (LLMs を含む) にとってまだ非常に難しい課題であることが分かる $[2,3,4]$ 。難しい IF から研究するよりも、我々は簡単な IF 環境で AI エージェントの性能を段階的に向上させたいと考えている。適切な難易度を持つIF 環境を容易く作れるようにするために、Côté らは TextWorld[5]を提案した。TextWorld は、ユーザーがIF 環境を手動で作成するか、生成メカニズムを使用して自動的にIF を構築することを可能にするサンドボックス環境である。TWC[1] は TextWorld 上に構築された IF 環境であり、主な目的はエージェントが常識を活用する能力を検証することである。TWC の後には、 より複雑な IF 環境がいくつか登場している。例として、Science World[6] や Complex World[7]がある。 Science World の問題点は環境が特定の領域 (科学) に特有であるため、この環境で良いパフォーマンスを示すェージェントは他の環境に対応できない可能性がある。一方、Complex World は TWC よりも複雑であり、Complex World での研究は我々の今後の課題となる。
## 2.2 人工知能エージェント
IF の報酬がスパースであるため、この分野における AI ェージェントは主に強化学習に基づいている。LSTM-DQN[8] はこの領域の最初の成果の一つであり、Karthik らは LSTM を使用してテキストの説明を隠れた状態にエンコードした。DRRN[9] は LSTM-DQN をベースにしており、状態とアクションをエンコードするニューラルネットワークを分離する。この改善により、モデルのパフォーマンスと安定性が向上した。KG-A2C[10] は探索の過程で知識グラフを生成し、モデルの探索をさらにガイドする。この方法はエージェントの学習効率とパフォー マンスを向上させたことが報告されている。これらの手法は TWC の論文 [1] でベースラインとして使用されている (LSTM-DQN が LSTM-A2C として実装されていることが要注意)。また、この論文で提案されたモデルである TWC Agent は ConceptNet から常識知識を抽出し、常識知識の導入によりべー スラインより良し性能を達成した。
## 3 提案手法
## 3.1 問題設定
TWC ゲームでの人工知能ェージェントのタスクは、部屋を整理することであり、具体的には特定の物体を光の属する場所に戻すことである。たとえば、使ったティッシュペーパーはゴミ箱に入れるべきであり、污れた服は洗濯機に入れるべきである。物体が特定の位置に属するかどうかの判断基準は常識であり、これらの物体-位置のペアの妥当性は人間の評価者によって確認されている [1]。
TWC ゲームをプレイする時、各時間ステップで、 プレイヤーやェージェントはゲームエンジンからの発見 (observation) を取得する。この発見は自然言語の形で提示される。觉の後、エージェントは行動を選択し、光の行動が実行された後、ゲームエンジンは新しい発見を返す。このサイクルには 2 つの終了条件がある。一つはェージェントがすべてのタスクを完了した場合であり、もう一つはエージェントが行動回数の上限を超えた場合である。本研究では行動回数の上限が 20 に設定される。ゲームエンジンが返す発見には以下の内容が含まれる。
- Action Result: 行動が実行された場合、ゲー ムエンジンからのフィードバックを意味す
る。行動で報酬を得た場合、爫の報酬もフィー ドバックに含まれる。例えば、とあるゲー ムステートで「insert dirty yellow T-shirt into washing machine」という行動を実行すると、 ゲームエンジンは「You put the dirty yellow T-shirt into the washing machine.Your score has just gone up by one point.」というフィードバックを返す。
- Environment Description: 現在の環境に関するテキストの説明である。
- Inventory: 現在所持しているアイテムの説明である。
$\cdot$ Available Action List: 現在実行できるアクションのリストである。
## 3.2 プロンプト
プロンプトは我々が提案する手法で最も重要な部分である。LLM に提供するプロンプトには、エンジンから受け取った発見の中にあるすべての要素が含まれる: Action Result、Current Environment、 Inventory、Available Action List。これらの要素について 3.1 節で説明した。これに加えて、プロンプトにはタスクの説明 (Task)、行動履歴 (Action history)、モデルの出力を構造化するための回答テンプレート (Question、Consideration、Next action) も含まれている。例を以下に示す (長過ぎる文章を省略している)。
Task: You are a experienced text game player, your goal is put things in there proper locations and improve your score.
Action history: Action 0: examine suspended shelf - $>$ The suspended shelf is reliable. Action 1: take dirty singlet -> You pick up the dirty singlet from the ground.
Inventory: You are carrying: a dirty singlet
Current enviroment: $-=$ Laundry Room $=-$ You've entered a laundry room. You begin to take stock of what's here.You can see a washing machine. Empty!
Action you can take:
* close clothes drier
* close laundry basket
* put dirty singlet on work table
Question: To put things in there proper locations
and improve your score, what should you do? Think step by step then choose 'one' action from above list.
Consideration: $<$ fill in $>$
Next action: $<$ fill in $>$
「Task」とはタスクの説明で、固定されている文字列である。「Action history」とは行動履歴で、行動の回数とともに増加し、「行動 ->フィードバック」の形式でテキスト化される。「Current Environment」 とは現在の環境のテキストの説明である。「Action you can take」とはゲーム環境から取得した可能な行動のリストである。「Question」、「Consideration」 および「Next action」は「Task」と同様に固定された文字列であり、モデルの出力を構造化するためのテンプレートである。上記のプロンプトに対する gpt4.0 turbo の出力は以下の通りである。
Consideration: To properly place the dirty singlet, it should be put somewhere related to laundry processing. Inserting it into the washing machine seems like the most appropriate step since typically, dirty clothes need to be washed before they are dried or placed in a laundry basket.
Next action: insert dirty singlet into washing machine
回答テンプレートが存在するため、GPT 4.0 の出力は整然としていて、この出力から行動を自動的に抽出することができる。しかし、GPT 3.5 の出力はテンプレートに合わないことが多いため、出力を行動リストに対応させるためのテクニック (grounding) が必要である。本研究では、LLMs の出力を人手で行動に変換する。具体的には、モデルの出力の一部(上記の例では「Next action」の後の部分)をコピーし、ゲームエンジンのインターフェー スに貼り付けるだけである。
先行研究では、例を提供することが LLMs の性能向上に役立つとされている。觉のため、我々はゲームの流れを例としてプロンプトに追加し (「Example walkthrough」と名付ける)、例が一つの場合 (one-shot) を研究した。このゲームの流れは、人間プレイヤーがテストセット外の難易度が hard である一つのゲームでプレイし、最短経路でゲー ムを完了したものである。「Example walkthrough」 の形式は「行動 ->フィードバック」で、「Action history」の形式と完全に一致している。「Example walkthrough」以外のプロンプトは zero-shot と同様である。one-shot のプロンプトは以下である。
Task: You are a experienced ......
Example walkthrough: Action 0: insert dirty yellow dress into washing machine ->You put the dirty yellow dress into the washing machine.Your score has just gone up by one point. ...... Action 14: insert dirty maroon dress into washing machine ->You put the dirty maroon dress into the washing machine.Your score has just gone up by one point. ${ }^{* * *}$ The End ${ }^{* * *}$
Action history:
Next action: <fill in $>$
## 3.3 API でプロンプトを使用
本節では、API でのプロンプトの使用方法について説明する。我々は OpenAI API を使用して gpt4.0 turbo(具体的なモデル名は gpt-4-1106-preview)および gpt3.5 turbo(モデル名は gpt-3.5-turbo)を呼び出す。Python コードは次の通りである。
Listing 1 API を使用する Python コード
ここで、system_msg と user_msg は文字列変数であり、本研究では乥れ光れ以下のテキスト内容を含んでいる。
$\cdot$system_msg: タスク (Task)、ゲームの流れの例 (Example walkthrough)、行動履歴 (Action history)、インベントリ (Inventory)、現在の環境 (Current enviroment)
- user_msg: 可能な行動リスト (Available Action List)、回答テンプレート (Question、Consideration、Next action)
## 4 実験
## 4.1 データセット
手法の性能を評価するために我々が使用するデータセットは TWC であり、このデータセットは
GitHub から入手できる1)。このデータセットには、 easy、medium、hard の 3 つの難易度があり、難易度ごとに 5 つのゲームが含まれている。ゲームの難易度は整理する必要のあるアイテムや部屋の数で区別する。難易度が最も低いゲームには整理する必要のあるアイテムが 1 つと部屋が 1 つしか含まれておらず、難易度が最も高いゲームには整理する必要のあるアイテムが 7 つと異なる 2 つの部屋が通路でつながっている。エージェントは「go east」のような行動で部屋間の移動ができる。
## 4.2 実験設定
モデル : GPT4.0 turbo (具体的なモデル名は gpt-4-1106-preview) と gpt3.5 turbo(モデル名は gpt-3.5-turbo)を呼び出すために OpenAI API を使用し、具体的なコードは 3.3 節で説明した。微調整: すべての LLMs は微調整されていない。行動回数上限 : 各ゲームについて、モデルが取ることができる行動の上限を 20 と規定する。重複実験 : 重複実験はしていない。すべてのスコア (normalized score) は 1 回の実行結果である。評価指標:評価指標は TWC 論文と同樣に normalized score (エージェントが達成されたスコア $\div$ 最大の可能なスコア) を使用する。
したがって、モデルと例の数に基づいて、提案手法は次のとおりである:GPT 3.5 zero-shot、GPT 3.5 one-shot、GPT 4.0 zero-shot、GPT 4.0 one-shot。
## 4.3 ベースライン
本研究で使用されるベースラインには、LSTMA2C、DRRN、KG-A2C、およびTWC Agent (常識知識は Numberbatch で導入) が含まれており、これらのベースラインの特徴について 2.2 節で紹介した。ベースラインのスコアは TWC の論文から直接取得し、再実装およびテストを行っていないことに注意してほしい。ベースラインのスコアは、10 回の繰り返し実験の平均値である [1]。
## 5 結果
実験結果は表 1 に示す。すべてのスコアは normalized score で、エージェントが達成したスコアをゲームで達成可能な最高スコアで割ったものである。注意すべきのは、各難易度レベルには 5 つ表 1 実験結果
のゲームが含まれ、スコアはエージェントが 5 つのゲームで達成したスコアの平均值である。
表 1 によると、Easy と Medium レベルのゲームでは、GPT4.0 (zero-shot および one-shot) が安定してすべてのアイテム整理タスクを遂行した。一方、hardレベルのゲームでは、GPT4.0 one-shot が TWC-Agent および LSTM-A2C に敗れた。ただし、 すべてのベースライン手法はトレーニングセットで 100 エピソードのトレーニングを行っており、LLMs には微調整を行っていない。また、我々が採用したプロンプトは非常に単純なものであり、プロンプ卜の改良がモデルの性能向上につながる可能性がある。
## 6 おわりに
本研究では、大規模言語モデルを使用してインタラクティブフィクション分野の人工知能ェージェン卜を実現する方法を提案した。従来の強化学習手法と比較して、我々の手法はシンプルで性能が優れている。TextWorld Commonsense データセットでは、微調整を行わなくても、我々の手法はトレーニングセットで学習された強化学習モデルと同等レベルの性能を持っている。具体的には、GPT4.0 one-shot は Easy および Medium の合計 10 のゲーム環境ですべてのタスクを完璧に遂行した。Hard レベルのゲーム環境では、我々の手法の性能 (0.52) は性能の一番良いベースライン $(0.57)$ を上回ることはできないが、この差はプロンプトの改良によって補われる可能性がある。
/$ tree/master/games/twc
}
## 参考文献
[1] Keerthiram Murugesan, Mattia Atzeni, Pavan Kapanipathi, Pushkar Shukla, Sadhana Kumaravel, Gerald Tesauro, Kartik Talamadupula, Mrinmaya Sachan, and Murray Campbell. Text-based rl agents with commonsense knowledge: New challenges, environments and baselines. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 9018-9027, 2021.
[2] Matan Haroush, Tom Zahavy, Daniel J. Mankowitz, and Shie Mannor. Learning how not to act in textbased games. In 6th International Conference on Learning Representations, ICLR 2018, 2018. Publisher Copyright: $\oplus$ 6th International Conference on Learning Representations, ICLR 2018 - Workshop Track Proceedings. All rights reserved.; 6th International Conference on Learning Representations, ICLR 2018 ; Conference date: 30-04-2018 Through 03-05-2018.
[3] Shunyu Yao, Karthik Narasimhan, and Matthew Hausknecht. Reading and acting while blindfolded: The need for semantics in text game agents. arXiv preprint arXiv:2103.13552, 2021.
[4] Chen Feng Tsai, Xiaochen Zhou, Sierra S Liu, Jing Li, Mo Yu, and Hongyuan Mei. Can large language models play text games well? current state-of-the-art and open questions. arXiv preprint arXiv:2304.02868, 2023.
[5] Marc-Alexandre Côté, Akos Kádár, Xingdi Yuan, Ben Kybartas, Tavian Barnes, Emery Fine, James Moore, Matthew Hausknecht, Layla El Asri, Mahmoud Adada, et al. Textworld: A learning environment for text-based games. In Computer Games: 7th Workshop, CGW 2018, Held in Conjunction with the 27th International Conference on Artificial Intelligence, IJCAI 2018, Stockholm, Sweden, July 13, 2018, Revised Selected Papers 7, pp. 4175. Springer, 2019.
[6] Ruoyao Wang, Peter Jansen, Marc-Alexandre Côté, and Prithviraj Ammanabrolu. Scienceworld: Is your agent smarter than a 5 th grader? arXiv preprint arXiv:2203.07540, 2022.
[7] Shreyas Basavatia, Shivam Ratnakar, and Keerthiram Murugesan. Complexworld: A large language model-based interactive fiction learning environment for text-based reinforcement learning agents. In International Joint Conference on Artificial Intelligence, 2023.
[8] Karthik Narasimhan, Tejas Kulkarni, and Regina Barzilay. Language understanding for text-based games using deep reinforcement learning. arXiv preprint arXiv:1506.08941, 2015.
[9] Ji He, Jianshu Chen, Xiaodong He, Jianfeng Gao, Lihong Li, Li Deng, and Mari Ostendorf. Deep reinforcement learning with a natural language action space. arXiv preprint arXiv:1511.04636, 2015.
[10] Prithviraj Ammanabrolu and Matthew Hausknecht.
Graph constrained reinforcement learning for natural language action spaces. arXiv preprint arXiv:2001.08837, 2020.
## 7 付録
## 7.1 zero-shot プロンプトの具体例
## zero-shot プロンプトの具体例を示す (省略なし)。
Task: You are a experienced text game player, your goal is put things in there proper locations and improve your score.
Action history: Action 0: examine suspended shelf - $>$ The suspended shelf is reliable. Action 1: take dirty singlet -> You pick up the dirty singlet from the ground.
Inventory: You are carrying: a dirty singlet Current enviroment: $-=$ Laundry Room $=-$ You've entered a laundry room. You begin to take stock of what's here.You can see a washing machine. Empty! What kind of nightmare TextWorld is this? You make out an opened clothes drier. The clothes drier is empty! What a waste of a day! You can see a laundry basket. Hmmm... what else, what else? The laundry basket is empty! What a waste of a day! You can see a suspended shelf. The suspended shelf is ordinary. But oh no! there's nothing on this piece of garbage. You move on, clearly infuriated by TextWorld. You scan the room, seeing a bench. But the thing hasn't got anything on it. Oh! Why couldn't there just be stuff on it? You make out a work table. But oh no! there's nothing on this piece of garbage.
Action you can take:
* close clothes drier
* close laundry basket
* close washing machine
* drop dirty singlet
* examine bench
* examine clothes drier
* examine laundry basket
* examine suspended shelf
* examine washing machine
* examine work table
* insert dirty singlet into clothes drier
* insert dirty singlet into laundry basket
* insert dirty singlet into washing machine
$*$ look
* put dirty singlet on bench
* put dirty singlet on suspended shelf
* put dirty singlet on work table
Question: To put things in there proper locations and improve your score, what should you do?
Think step by step then choose 'one' action from above list.
Consideration: $<$ fill in $>$
Next action: $<$ fill in $>$
## 7.2 one-shot プロンプトの具体例
$\ulcorner$ Example walkthrough $\lrcorner$ 以外のプロンプトは zeroshot と同樣である。文章が長過ぎるため、省略された部分がある。
Task: You are a experienced ......
Example walkthrough: Action 0: insert dirty yellow dress into washing machine ->You put the dirty yellow dress into the washing machine.Your score has just gone up by one point. Action 1: take dirty yellow $\mathrm{T}$-shirt from bench ->You take the dirty yellow T-shirt from the bench. Action 2: insert dirty yellow T-shirt into washing machine ->You put the dirty yellow T-shirt into the washing machine.Your score has just gone up by one point. Action 3: take wet azure dress from suspended shelf $->$ You take the wet azure dress from the suspended shelf. Action 4: insert wet azure dress into clothes drier ->You put the wet azure dress into the clothes drier.Your score has just gone up by one point. Action 5: take white cap from bench ->You take the white cap from the bench. ...... Action 14: insert dirty maroon dress into washing machine ->You put the dirty maroon dress into the washing machine.Your score has just gone up by one point. *** The End $* * *$
Action history: ......
Inventory: ......
Current enviroment: ......
Action you can take:
Question: ......
Consideration: $<$ fill in $>$
Next action: $<$ fill in $>$ | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A2-6.pdf | # 大規模言語モデルに対する 語彙置換継続事前学習の有効性の検証
野崎雄太 ${ }^{1}$ 中島大 ${ }^{1}$ 佐藤諒 ${ }^{1}$ 伊藤真也 ${ }^{1}$ 近藤宏 ${ }^{1}$ 麻場直喜 ${ }^{1}$ 川村晋太郎 ${ }^{1}$ 1 株式会社リコーデジタル戦略部 デジタル技術開発センター 言語 AI 開発室 \{yuta. nozaki1, dai. nakashima, ryo.sato4, shinya.itoh, hiroshi.xx.kondoh, naoki.asaba, shintaro.kawamura\}@jp.ricoh.com
## 概要
英語モデルに日本語データを継続事前学習することによって日本語性能を高めるというアプローチにおいて,最も重要な課題の 1 つに日本語に最適化されていないトークナイザーによる学習効率の低下が挙げられる。トークナイザー の語彙拡張など様々な対策手法があるが,モデルパラメータの増大という副作用もある。そこで本研究ではトークナイザーの語彙拡張をせずに,既存モデルの埋め込みを活用することによって学習効率と精度を高める手法, 語彙置換継続事前学習を提案する。検証の結果,語彙拡張と同等の精度が確認された。
## 1 はじめに
近年 Transformer [1] ベースの大規模言語モデルの研究が加速し, 様々な LLM が公開されている. しかし,その大部分 $[2,3]$ は大量の英語テキストによって学習された英語特化モデル (英語モデル)であり,日本語に特化したモデル (日本語モデル) は少ないのが現状である. 主な理由として, 日本語の良質な大規模コーパスは英語と比較して少量であり, 学習データ量を増やすことで言語モデルとしての性能が向上するという法則 [4] の上で制約となっていることが考えられる。
いわゆる低リソース言語に特化したモデルを構築する場合,十分なデータ量で学習された英語モデルにその言語データを継続事前学習させるというアプローチがある [5,6]. 日本語の事例でも英語モデルに日本語データを継続事前学習することで日本語モデルを構築したという報告がある [7]. しかしこの場合,既存のモデルはトークナイザーの語彙の大半が英語であるため, このまま日本語データを継続事前学習すると同一バッチ内で学習できる文字列長が英語と比較して少なくなってしまい,学習効率が非常に悪い. そのため日本語の語彙が多く含まれるトー クナイザーを構築して学習を行うことが求められる。
トークナイザーに変更を加えて継続事前学習を行う手法には以下のようなものが挙げられる。
- Scratch: 新規トークナイザーで継続事前学習
・Extend: トークナイザー語彙を拡張して継続事前学習
Scratch はトークナイザーの語彙と既存モデルの語彙の埋め込みべクトルの一致率が著しく低くなり,既存の重みを活用できず,精度が低くなってしまう可能性がある。一方で Extend は拡張された語彙の埋め込みべクトルの初期値を工夫することによって既存モデルの重みを活用しながら日本語に特化したトークナイザーで継続事前学習ができる. BERT [8] などのエンコーダモデルに対する低リソース言語の継続事前学習 $[6,9]$ やドメイン適応の分野でもこの手法は一般的である $[10,11,12,13]$. しかし,トークナイザーの語彙を拡張すると, 同時にモデルサイズが語彙数に応じて増加し, 最終的に GPUメモリや学習時間などコストが増大する。 また,語彙数を一定以上増やしても性能は飽和するという報告もある [14]. これらの問題を解決するために, 本研究では既存トークナイザーの語彙の一部を置換することで,既存の埋め込みを活用しながら語彙数を拡張せずに継続事前学習を行う手法, 語彙置換継続事前学習を提案する. 具体的には,新しくトークナイザーを構築し,既存トークナイザーのみに含まれる語彙を新規トー クナイザーのみに含まれる語彙に置換する。また,置換した語彙に対応するモデルの埋めこみベクトルはその語彙を構成するトークン列の埋め込みべクトルの平均に置換する。これによっ
て語彙数を増やさずに既存モデルの埋め込みを活用しながら継続事前学習を行うことができる.
## 2 関連研究
[15] はトークナイザーの効率を評価する指標として,トークンあたりの文字列長 (length per token) を挙げており,多言語トークナイザーを構築する場合,一定の語彙数の水準で length per token が飽和することを確認した. 本研究ではこの事例をべースに英語語彙数が減少したことによる英語タスク精度げの影響の検証も行う。
## 3 語彙置換継続事前学習
語彙置換継続事前学習は語彙の置換と埋め込みの置換の 2 つの手法を組み合わせている. 図 1 に概略を示す。
## 3.1 語彙の置換
トークナイザー $T$ を語彙 $V$ と語彙から語彙 ID をマッピングする関数 $f$ の組 $(T, f)$ と定義し,既存のトークナイザー $T_{A}$ と新規トークナイザー $T_{B}$ とする. それぞれのトークナイザーは語彙 $V_{A}, V_{B}$ で同じ語彙数を持つ.
$
\begin{aligned}
& V_{A}=\left.\{v_{1}^{A}, v_{2}^{A}, \ldots, v_{n}^{A}\right.\} \\
& V_{B}=\left.\{v_{1}^{B}, v_{2}^{B}, \ldots, v_{n}^{B}\right.\}
\end{aligned}
$
$T_{A}$ の各語彙 $v_{i}^{A}$ に対する語彙 ID $k_{i}^{A}$ をマッピングする関数 $f_{A}$, 同様に $T_{B}$ の各語彙 $v_{1}^{B}$ に対する語彙 ID $k_{i}^{B}$ をマッピングする関数 $f_{B}$ を定義する。
$
f_{A}\left(v_{1}^{A}\right)=k_{i}^{A}, \quad f_{B}\left(v_{i}^{B}\right)=k_{i}^{B}
$
$V_{A}$ と $V_{B}$ の共通語彙を $V_{\text {com }}, V_{A}$ の独自語彙を $V_{\text {uniA }}, V_{B}$ の独自語彙を $V_{\text {uniB }}$ とする.
$
\begin{gathered}
V_{\text {com }}=V_{A} \cap V_{B}, \\
V_{\text {uniA }}=V_{A}-V_{B}, \quad V_{\text {uniB }}=V_{B}-V_{A}
\end{gathered}
$
$V_{\text {uniA }}$ の全ての語彙 $v_{i}^{A}$ を $V_{\text {uniB }}$ の語彙 $v_{i}^{B}$ に置換し,置換済み語彙集合を $V_{A}^{\prime}$ とする。また,新しいマッピング関数 $f_{A^{\prime}}$ を定義する。 $f_{A^{\prime}}$ は $T_{B}$ の各語彙 $v_{i}^{B}$ に対して,$T_{A}$ の対応する語彙 ID $k_{i}^{A}$ を割り当てる。
$
f_{A^{\prime}}\left(v_{i}^{B}\right)=k_{i}^{A}
$
$V_{A}^{\prime}$ と $f_{A^{\prime}}$ を持つトークナイザーを語彙置換トー クナイザー $T_{A^{\prime}}$ とする. $T_{A^{\prime}}$ は $T_{A}$ をべースとしていることから, $f_{A}\left(V_{\text {com }}\right)=f_{A^{\prime}}\left(V_{\text {com }}\right)$ となる. つまり $T_{A}$ で学習したモデルの埋め込みべクトルとの対応関係も維持される。
## 3.2 埋め込みの置換
3.1 で置換したトークナイザーの語彙は既存モデルの埋め込みベクトルとは意味的な対応関係がない。そのため先行事例 [11] と同様に,既存モデルのトークン列の平均ベクトルで埋め込みべクトルも置換する.具体的には,語彙を辞書としてテキストをトークン分割しトークン列 $L$ を返す関数 Tokenize $(V$, text $)$ を定義し, 既存トークナイザー $T_{A}$ の語彙 $V_{A}$ を辞書として, $v_{i}^{B} \in V_{\mathrm{uniB}}$ をトークン分割し,トークン分割されたトークンを $S_{v_{i}^{B}}$ とする. $S_{v_{i}^{B}}$ の各トークンに対する既存モデルの埋め込みべクトル $\overrightarrow{S_{v_{i}^{B}}}$ を取得し,平均埋め込みベクトルを計算する。この平均埋め込みべクトルは $v_{i}^{B}$ の意味を表すべクトル $\overrightarrow{v_{i}^{B}}$ となる.
$
\overrightarrow{v_{i}^{B}}=\frac{1}{\left|S_{v_{i}^{B}}\right|} \sum \overrightarrow{S_{v_{i}^{B}}}
$
既存モデルの埋め込みベクトル集合 $\overrightarrow{V_{A}}$ におい $\tau, v_{i}^{B} \in V_{\mathrm{uniB}}$ の各トークンに対応する埋め込みベクトルは語彙 $v_{i}^{A}$ の意味を持つべクトル $\overrightarrow{v_{i}^{A}}$ である. そのため $\overrightarrow{V_{A}}$ のうち, $v_{i}^{A} \in V_{\text {uniA }}$ となる全ての $\overrightarrow{v_{i}^{A}}$ を, $\overrightarrow{v_{i}^{B}}$ に置換し,置換済み埋め込みべクトル集合 $\overrightarrow{V_{A^{\prime}}}$ とする.この $\overrightarrow{V_{A^{\prime}}}$ は語彙置換トークナイザー $T_{A^{\prime}}$ の語彙 $V_{A^{\prime}}$ の意味がより正確に表現されているべクトルであると考えられ,学習がより効率的になると考えられる。
## 4 検証実験
語彙置換のみを適用して継続事前学習した手法 (Replace) と埋め込み置換も行った手法 (Embedding-Replace) の有効性を検証する.
## 4.1 実験設定
実験で使用するベースとなる既存トークナイザーおよびモデルは Llama 2 7B Chat [3] とした.新規トークナイザーは日本語データ (Wikipedia・ CC-100)と英語データ(Wikipedia)を 7:10の割合でサンプリングしたデータから構築し,提案手法を用いて語彙置換トークナイザー $T_{A^{\prime}}$ を構築した. 比較手法として, 既存トークナイザー $T_{A}$ を使った手法 (Keep), 新規トークナイザー $T_{B}$ を使って継続事前学習した手法 (Scratch), 語彙拡張トークナイザー $T_{E}$ を使った手法 (Extend) を設定する. Extend は先行研究 [11] の手法に準拠した. $V_{A} \cup V_{B}$ で得られる語彙集合を $V_{E}$ とし
図 1 語彙置換継続事前学習の概略図
て, $\left|V_{E}\right|$ まで埋め込みべクトルの数を増加させた. トークナイザー $\mathrm{A}$ によって $V_{E}$ をトークナイズし,その埋め込みべクトルの平均を埋め込みべクトル $\overrightarrow{V_{E}}$ として設定した.
これらの設定でモデルを学習した.また,継続事前学習データは日本語データ (Wikipedia) を利用した。
## 4.2 トークナイザー評価
既存・新規・語彙置換・語彙拡張トークナイザーのそれぞれの日本語及び英語語彙数と 1 トークンあたりの平均文字数 (length per token) を検証した. 日本語の検証データは CC-100 データセット,英語は $\mathrm{mC4}$ データセットを使用した。結果を表 1 に示す. 既存と比較すると語彙置換や語彙拡張は日本語では約 2 倍となっており,語彙拡張が最も length per token の値が高かったが,語彙置換と比較して大きな差はなかった。 また,英語では語彙置換は英語語彙数が少なくなるため, length per token の值は低くなることが予想されるが,大きく低下していないことが確認された.これは [15] と同様の結果と同じことを示している。これによって語彙拡張でなくても,同水準に推論効率を向上できることが確認された。また,語彙と埋め込みべクトルの一致率を確認した。一致率が高いほど既存のモデルの埋め込みを直接活用できることを表す. 結果を表 1 に示す。一致率は $35.6 \%$ ,拡張は $60.82 \%$ であった。
$\square$ Scratch $\square$ Replace $\square$ Embedding-Replace $\square$ Extend $\square$ Keep
図 2 埋め込みベクトルの変化率の平均値
## 4.3 モデル評価
続いて,日本語および英語タスクによる精度評価,共通語彙の埋めこみ及び独自語彙の埋め込みの変化率 (学習前後のベクトルの L2 ノルムの平均)を比較する.
最初にモデル学習後の日本語タスクの精度比較を行う。表 2 に各タスクにおける精度を示す. 結果は Keep が一部のタスクを除き,最
表 1 トークナイザーの統計
& & & & & \\
表 2 日本語タスク, 英語タスクの精度評価結果 : タスク名 (ショット数, 評価指標)
& & & & & & & & & \\
も精度が良いことが確認された。また,同時に Embedding-Replace と Extend が同水準の精度であることが確認され,語彙置換継続事前学習の有効性が確認された。一方で Scratch は他の手法と比較してタスクの精度が大幅に落ちていることが確認された。これは埋め込みとトークナイザーの語彙が対応していないことが原因と考えられる。この結果により,語彙置換手法の有効性が確認された。また,Embedding-Replace と Replace を比較すると, Embedding-Replace の精度が良いことから,埋め込み置換手法の有効性も確認された。
次に英語タスクの精度比較を行う。本実験では日本語データのみで継続事前学習を行ったため,英語を忘却し,英語タスクの精度低下が想定される。また,語彙置換トークナイザーは英語語彙数を減少させているので,EmbeddingReplace や Replace で破滅的な忘却が発生する可能性がある.英語の各タスクを用いて Extend と比較した精度の低下を検証した. 検証の結果, Embedding-Replace は Extend と同等の水準の精度であることが確認された。このため,語彙数を減少したことによる大幅な精度の低下は見られないことが確認された。
続いて埋め込みべクトルの変化率の評価を行
う. 図 2 に結果を示す. Keep の埋め込み変化率に比べて,その他の手法は共通語彙,独自語彙共に変化率が高いことが確認された. Scratch では 266 件の共通語彙のほとんどが意味を持たないトークンであったため, 独自語彙と同程度の変化率となったと推察される. Replace や Embedding-Replace, Extend では概牧独自語彙の変化率が高く, 共通語彙の変化率が低いことが確認された. 一方で Embedding-Replace の独自語彙の変化率が他の手法と比較して非常に高いことが確認されている.
## 5 おわりに
本論文では語彙数を増加させず,語彙や埋め込みの置換を行って継続事前学習を行う手法を提案した. 検証実験の結果,語彙置換継続事前学習の有効性が確認され, 語彙拡張手法と同水準の性能であることが確認された。また,共通語彙および独自語彙間で埋め込みべクトルの変化率に一定の差があることが確認された。
今後の展望として, 語彙と埋め込みベクトルの一致率と精度の相関関係について調査を行うことが挙げられる.
本研究の成果を用いて,より大規模に継続学習を行い,日英モデルを構築した [16].
## 参考文献
[1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[2] OpenAI, :, Josh Achiam, Steven Adler, Sandhini Agarwal, Lama Ahmad, Ilge Akkaya, Florencia Leoni Aleman, Diogo Almeida, Janko Altenschmidt, Sam Altman, et al. Gpt-4 technical report, 2023.
[3] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and finetuned chat models, 2023.
[4] Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling laws for neural language models, 2020.
[5] Zheng Xin Yong, Hailey Schoelkopf, Niklas Muennighoff, Alham Fikri Aji, David Ifeoluwa Adelani, Khalid Almubarak, M Saiful Bari, Lintang Sutawika, Jungo Kasai, Ahmed Baruwa, , et al. BLOOM+1: Adding language support to BLOOM for zero-shot prompting. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 11682-11703, Toronto, Canada, July 2023. Association for Computational Linguistics.
[6] Zihan Wang, Karthikeyan K, Stephen Mayhew, and Dan Roth. Extending multilingual BERT to lowresource languages. In Trevor Cohn, Yulan $\mathrm{He}$, and Yang Liu, editors, Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2649-2656, Online, November 2020. Association for Computational Linguistics.
[7] elyza. elyza/elyza-japanese-llama-2-7b $\cdot$ hugging face, 2023. https://huggingface.co/elyza/ ELYZA-japanese-Llama-2-7b.
[8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[9] Jonas Pfeiffer, Ivan Vulić, Iryna Gurevych, and Sebastian Ruder. UNKs everywhere: Adapting multilingual language models to new scripts. In MarieFrancine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 10186-10203, Online and Punta Cana, Dominican Republic, November
2021. Association for Computational Linguistics.
[10] Arata Suganami and Hiroyuki Shinnou. Construction of Japanese BERT with fixed token embeddings. In Shirley Dita, Arlene Trillanes, and Rochelle Irene Lucas, editors, Proceedings of the 36th Pacific Asia Conference on Language, Information and Computation, pp. 356-361, Manila, Philippines, October 2022. Association for Computational Linguistics.
[11] Yunzhi Yao, Shaohan Huang, Wenhui Wang, Li Dong, and Furu Wei. Adapt-and-Distill: Developing Small, Fast and Effective Pretrained Language Models for Domains. In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 460-470, Online, August 2021. Association for Computational Linguistics.
[12] Hirotaka Tanaka and Hiroyuki Shinnou. Vocabulary expansion of compound words for domain adaptation of bert. In Proceedings of the 36th Pacific Asia Conference on Language, Information and Computation, pp. 379-387, 2022.
[13] 照乃梶浦, 美唯佐藤, 菜生相馬, 舞衣高橋, 百々雅小原, 君郎倉光. 多言語事前学習済みモデル $\mathrm{mt} 5$ への python 言語モデルの追加学習. 情報処理学会論文誌プログラミング(PRO), Vol. 16, No. 2, pp. 29-29, 062023.
[14] Wenlin Chen, David Grangier, and Michael Auli. Strategies for Training Large Vocabulary Neural Language Models. In Katrin Erk and Noah A. Smith, editors, Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1975-1985, Berlin, Germany, August 2016. Association for Computational Linguistics.
[15] 中島大, 野崎雄太, 佐藤諒, 麻場直喜, 川村晋太郎, (in press). BPE を用いたトークナイザーの性能に対する, 言語・語彙数・データセットの影響. 言語処理学会第 30 回年次大会発表論文, 2024.
[16] 麻場直喜, 野崎雄太, 中島大, 佐藤諒, 池田純一, 伊藤真也, 近藤宏, 小川武士, 坂井昭一朗, 川村晋太郎 press). 語彙置換継続事前学習による日英バイリンガルモデルの構築と評価. 言語処理学会第 30 回年次大会発表論文, 2024. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-1.pdf | # NoisylCL: A Little Noise in Model Parameters Can Calibrate In-context Learning
趙羽風 ${ }^{1}$ 坂井吉弘 ${ }^{1}$ 井之上直也 ${ }^{1,2}$
${ }^{1}$ Japan Advanced Institute of Science and Technology, ${ }^{2}$ RIKEN
\{yfzhao, y.sakai, naoya-i\}@jaist.ac.jp
}
\begin{abstract}
In-Context Learning (ICL), where language models learn tasks in a generative form from few-shot demonstrations without parameter update, is emerging while scaling up the language models. Nevertheless, the performance of ICL is still unsatisfactory. Some previous studies suggested that it is due to under-calibration and they fine-tuned language models for better ICL performance with enormous datasets and computing costs. In this paper, we propose NoisyICL, simply perturbing the model parameters by random noises to strive for a calibration. Our experiments on 2 models and 7 downstream task datasets show that NoisyICL helps perform ICL better. Our further analysis indicates that NoisyICL can enable the model to provide more fair predictions, with less unfaithful confidence. So, NoisyICL can be considered as an effective calibration.
\end{abstract
## 1 Introduction
Scaling up language models is beneficial for many emergent abilities [1]. Among them, one of the most noticeable ones is In-Context Learning (ICL), in which language models can learn tasks in a generative form from few-shot input-label demonstrations in natural language without explicit parameter updates. Therefore, ICL has been a highly promising application of language models [2].
Nevertheless, the performance of ICL is still below the pre-training and fine-tuning models [3]. Therefore, there has been some effort in fine-tuning or calibrating language models towards ICL tasks $[4,5,6]$. These works focus on remedying the difference between the pre-training knowledge and the ICL task, and produce significant improvements in the ICL performance, while the computation cost is quite high to fine-tune these enormous language models on the additional data.
We believe that adding noise to model parameters, which is beneficial in the pre-training and fine-tuning paradigm $[7,8]$, can be a bridge from the pre-training to ICL. In this paper, we propose NoisyICL, simply add noise to language model parameters, and then perform ICL on the modified models.
Our experiments on 2 models and 7 datasets show that an appropriate perturbation can significantly improve the performance of the ICL with low computational complexity, as shown in Fig. 1. Moreover, to verify whether NoisyICL can calibrate language models, we conduct further analysis and point out that: 1. NoisyICL can neutralize bias among label tokens introduced by the pre-training and 2. NoisyICL can relent the over- and under-confidence in the prediction, which is considered harmful to the model predictions $[9,10,11]$.
## Our contribution can be summarized as:
- We propose NoisyICL, simply add noise into the language models and then perform ICL ( $\$ 2)$. Our experiment shows that NoisyICL can obtain a better ICL performance ( $\$ 3.3$ ).
- We show that adding noise can be an effective calibration for language models to reduce the pre-training bias and unfaithful confidence in ICL (§3.4).
## 2 NoisyICL
Here we introduce the basic form of ICL and our perturbation method named NoisyICL.
In-context Learning. Given a supervised dataset $\mathscr{D}=$ $\left.\{\left(x_{i}, y_{i}\right)\right.\}, i=1, \ldots, n$, where $x_{i}$ is an input, and $y_{i} \in U$ is the corresponding label in the label space $U$, for each query input $x_{q}$ to be predicted by the language model, we sample a demos sequence $\left.\{\left(x_{a_{j}}, y_{a_{j}}\right)\right.\}, j=$ $1,2, \ldots, k$, where the $k$ is the number of demos, and
Figure 1 While noise is being added to the model, the ratio of ICL accuracy on the models with NoisyICL to the models without NoisyICL on downstream tasks will reach peaks. This indicates that an appropriate noise perturbation can improve the accuracy of ICL.
construct a prompt input in natural language form $s=$ $f\left(x_{a_{1}}, y_{a_{1}}, x_{a_{2}}, y_{a_{2}}, \ldots, x_{a_{k}}, y_{a_{k}}, x_{q}\right)$ with a pattern $f$. Then, we input $s$ into the language model $P_{\theta}(\cdot)$ with parameters $\theta$ and get an output token distribution $P_{\theta}(s)$. We choose the label token $l$ with the maximum probability among the label space as the prediction $\hat{y_{q}}$, that is:
$
\hat{y_{q}}=\underset{l \in U}{\operatorname{argmax}} P_{\theta}(l \mid s)
$
Notice that we only construct prompts to drive the model to predict labels generatively, without any parameter updates. Such a paradigm is In-context Learning.
NoisyICL. For every parameter matrix $\theta_{i}$ in the language model used for ICL, in this paper, we simply do an interpolation between the parameter matrix and a noise matrix sampled from $N\left(0, \sigma^{2}\right)$ with intensity $\lambda$, that is:
$
\theta_{i}^{\prime}=(1-\lambda) \theta_{i}+\lambda N\left(0, \sigma^{2}\right)
$
the $\lambda$ and $\sigma$ are model and task-wise hyperparameters. Then we perform the aforementioned ICL on the modified model. We call this NoisyICL.
## 3 Experiments and Results
We conduct comprehensive experiments to investigate the effectiveness of NoisyICL. First, we search for the most suitable noise intensity for each task and model (\$3.2). Then, we confirm that NoisyICL can improve ICL performance (\$3.3). Moreover, we demonstrate that NoisyICL is a kind of model calibration, that is, it can effectively alleviate the model's bias and unfaithful confidence (\$3.4).
## 3.1 Experimental Settings
Here we introduce the datasets, models, and other details of our experiments.
Data. In the experiments, we use 7 downstream task datasets, whose details are shown in Appendix A. Unlike the common methods that only use the training sets for demos and testing sets for queries, we sample the demos and queries from all the labeled data. In detail, for each labeled data in the whole dataset, we treat it as the query and contrast a prompt with the demos sampled from the whole dataset (except the query).
Models. We use GPT-2 [12] and GPT-J [13]. The model checkpoints are loaded from huggingface ${ }^{1}$.
Hyperparameters. We fix the $\sigma$, the standard deviation of the normal distribution, to 0.02 , which is the same as the initialization of both models. In advance, we search the value of $\lambda$, the intensity of noise, as described in $\S 3.2$. Other details. We default to use 4 demos and a very simple template for each prompt as shown in Appendix B. We repeat each experiment 20 times.
## 3.2 The Intensity of Noise
First, we determine the most suitable noise intensity by a simple search method for each dataset and model. In detail, we use various intensities to test the performance and find the one with the best result as the candidate. Some examples are shown in Fig. 1, and the full results are in Appendix C. The selected intensities are shown in Table 1. These optimal intensities are concentrated in $(0,0.2]$.
## 3.3 NoisyICL Can Improve Performance
Then, we test the accuracy and Macro-F1 on the 7 downstream task datasets with and without appropriate-noised NoisyICL. Our experimental results are shown in Table 1.
The results show that NoisyICL has an improvement up
1) huggingface.co/gpt2, and huggingface.co/EleutherAI/ gpt-j-6b
Table 1 Accuracy and Macro-F1 results $\left(\%\right.$, mean $\left._{s t}, k=4\right)$. A better result is in bold. $\lambda$ : The intensity of noise, Acc.: Accuracy, MF1: Macro-F1; w/o: Not using NoisyICL, w/: Using NoisyICL; Datasets: PS: poem_sentiment, HS: hate_speech18, SE'14R: SemEval 2014-Task 4 Restaurants, SE'14L: SemEval 2014-Task 4 Laptops, RTE: GLUE-RTE, MRPC: GLUE-MRPC, Ethos: ethos.
to $74 \%$ and average around $11 \%$ to the ICL performance. We infer that the pre-training datasets and objectives are not consistent with the ICL tasks [14], that is, the language models are overfitted on pre-training. And NoisyICL, which adds noise into models, can bridge such a gap.
However, such gains vary depending on the dataset. In some combinations of datasets and models, competitive results cannot be obtained. We speculate that it is due to the difficulty of these datasets, where the models cannot predict these tasks intrinsically, while NoisyICL doesn't provide new knowledge for these tasks.
## 3.4 NoisyICL Is A Calibration
Some previous studies have proposed calibration on large language models for better ICL performance $[4,5$, $6,15]$. These calibrations are mainly aimed at a $\mathbf{1}$. fairer output distribution [5, 15], that is, when no valid query is given, the labels should be assigned with the same likelihood. However, in original language models, the output is unfair due to the pre-training bias. Moreover, some researchers pointed out that 2 . unfaithful predictions are harmful [10,11], and making the model output with more faithful confidence is also a form of calibration [10, 16]. Some scholars also try some demonstration selection methods to obtain outputs with more faithful confidence [9].
In this section, we find that the NoisyICL can also solve both calibrations above. In detail, the model with NoisyICL can not only produce outputs with less bias but also
Figure 2 The correlation between the normalized entropy $H_{n}$ and the noise intensity $\lambda$ with no query. When the noise gets stronger, the $H_{n}$ becomes higher, which indicates a fairer output.
with suitable confidence. Therefore, we consider NoisyICL as a kind of calibration with a relatively small time and space cost.
1. NoisyICL alleviates pre-trained bias. We calculate the normalized entropy $H_{n}$ of the model output distribution when no valid query is given. In detail, for language model $P_{\theta}$ with a vocabulary size $|V|$, we construct a semantic-less input $x_{0}$ (such as a space, or "Label: "), and calculate the $H_{n}$ as:
$
H_{n}=\frac{\sum_{i=1}^{|V|} P_{\theta}\left(i \mid x_{0}\right) \ln P_{\theta}\left(i \mid x_{0}\right)}{\ln |V|}
$
The $H_{n}$ is higher on a fairer output and $H_{n}=1$ on a random output.
We test $H_{n}$ for both models with 2 different $x_{0}$ and various noise intensities. The results are shown in Fig. 2. While the noise is getting stronger, the normalized entropy is getting larger, which means the model is giving a fairer
Table 2 The $E C E_{1}$ results $\left(\downarrow, \%\right.$, mean $\left._{s t d}, k=4\right)$.
output.
2. NoisyICL promotes faithful confidence. The Expected Calibration Error $\left(E C E_{p}\right)$ [17] is a widely-used indicator for faithfulness of model confidence:
$
E C E_{p}=\mathbf{E}\left(\left|\max (\hat{z})-\mathbf{E}\left(1_{y=\operatorname{argmax}}^{i} \hat{z}_{i}\right)\right|^{p}\right)^{\frac{1}{p}}
$
where the $\hat{z}$ is the predicted probability vector by a classification model, and the final prediction $\left(\underset{i}{\operatorname{argmax}} \hat{z_{i}}\right.$ ) can be obtained with a confidence $(\max \hat{z})$, and the true label is $y$.
Let the $p=1$, we use the $E C E_{1}$ to investigate the overand under-confidence of the ICL output. A lower $E C E_{1}$ means more faithful confidence, and better calibration, that is, the confidence becomes a prediction of accuracy [18]. We test both models with and without the appropriatenoised NoisyICL for $E C E_{1}$ on the 7 datasets, the results are shown in Table 2.
In most situations, the $E C E_{1}$ is lower with NoisyICL than the unperturbed one, meaning the confidence is more faithful with NoisyICL. This suggests that NoisyICL can make the model output with more faithful confidence, that is, less over-confidence in wrong predictions, and less under-confidence in correct predictions.
Such results suggest that NoisyICL can be considered as a kind of calibration.
## 3.5 NoisyICL Furtherance Correct ICL
Moreover, we find that in some cases, unperturbed ICL can't benefit correctly from scaling the number of demos, while, the NoisyICL can help the model correct this issue, as shown in Fig. 3. These unperturbed models exhibit an overfitting-like phenomenon and also low accuracies, while NoisyICL can relieve it.
Figure 3 The impact of demos quantity on accuracy. NoisyICL can make the model learn from the demos correctly.
We speculate the reason is the mismatch between the pretraining knowledge and ICL inputs. This leads to a decrease in the model's in-context task learning [19] ability, while NoisyICL reduces such a gap between pre-training data and ICL style data, which makes models extract information from ICL inputs better.
## 4 Conclusion
In this paper, we propose NoisyICL, simply adds random noise to the parameters of language models to build a bridge between the pre-training knowledge and the ICL. We show that NoisyICL can not only improve the ICL performance but also calibrate the model for fairer outputs and more faithful confidence.
Limitations. Unlike the fine-tuning on additional ICLstyle datasets $[4,5,6]$, NoisyICL does not provide new knowledge for the model, so the calibrated model can not discover tasks that are not potentially included in the pretraining data [20]. Meanwhile, a simple search for the noise intensity is not efficient and satisfactory.
Future Works. Besides fixing the limits, future works can focus on where and how the noise should be introduced. In Transformer-based models, different layers have different abilities [21,22]. So, treating these layers differently may be an effective improvement of NoisyICL. Noise sampling methods also should be discussed.
Moreover, adding noise to model parameters can be a rollback of pre-training [23], so, the search for $\lambda$ is the search for the best pre-training checkpoints. With these checkpoints, we can determine [24, 25] which data is disadvantageous to ICL, to better reveal the essence of ICL.
## Acknowledgements
This work was supported by JSPS KAKENHI Grant Number 19K20332. The authors would like to thank Mr. Daichi Haraguchi at JAIST and MSc. Tongyuan Wei at the University of Cambridge, for their constructive criticism.
## References
[1] Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, et al. Emergent abilities of large language models. arXiv preprint arXiv:2206.07682, 2022.
[2] Qingxiu Dong, Lei Li, Damai Dai, Ce Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, and Zhifang Sui. A survey for incontext learning. arXiv preprint arXiv:2301.00234, 2022.
[3] Marius Mosbach, Tiago Pimentel, Shauli Ravfogel, Dietrich Klakow, and Yanai Elazar. Few-shot fine-tuning vs. in-context learning: A fair comparison and evaluation. arXiv preprint arXiv:2305.16938, 2023.
[4] Sewon Min, Mike Lewis, Luke Zettlemoyer, and Hannaneh Hajishirzi. Metaicl: Learning to learn in context. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2791-2809, 2022.
[5] Zihao Zhao, Eric Wallace, Shi Feng, Dan Klein, and Sameer Singh. Calibrate before use: Improving few-shot performance of language models. In International Conference on Machine Learning, pp. 12697-12706. PMLR, 2021.
[6] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M Dai, and Quoc V Le. Finetuned language models are zero-shot learners. In International Conference on Learning Representations, 2021.
[7] Chuhan Wu, Fangzhao Wu, Tao Qi, and Yongfeng Huang. Noisytune: A little noise can help you finetune pretrained language models better. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 680-685, 2022.
[8] Tianyi Zhang, Felix Wu, Arzoo Katiyar, Kilian Q Weinberger, and Yoav Artzi. Revisiting few-sample bert fine-tuning. In International Conference on Learning Representations, 2020.
[9] Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, and Pontus Stenetorp. Fantastically ordered prompts and where to find them: Overcoming few-shot prompt order sensitivity. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 80868098, 2022.
[10] Chuan Guo, Geoff Pleiss, Yu Sun, and Kilian Q Weinberger. On calibration of modern neural networks. In International conference on machine learning, pp. 1321-1330. PMLR, 2017.
[11] Julia Grabinski, Paul Gavrikov, Janis Keuper, and Margret Keuper. Robust models are less over-confident. Advances in Neural Information Processing Systems, Vol. 35, pp. 39059-39075, 2022.
[12] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019.
[13] Ben Wang and Aran Komatsuzaki. GPT-J-6B: A 6 Billion Parameter Autoregressive Language Model. https://gi thub.com/ kingoflolz/mesh-transformer-jax, May 2021.
[14] Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim, Boseop Kim, Kyunghyun Cho, Gichang Lee, Woomyoung Park, Jung-Woo Ha, et al. On the effect of pretraining corpora on in-context learning by a large-scale language model.
arXiv preprint arXiv:2204.13509, 2022.
[15] Jerry Wei, Le Hou, Andrew Lampinen, Xiangning Chen, Da Huang, Yi Tay, Xinyun Chen, Yifeng Lu, Denny Zhou, Tengyu $\mathrm{Ma}$, et al. Symbol tuning improves in-context learning in language models. arXiv preprint arXiv:2305.08298, 2023.
[16] Katherine Tian, Eric Mitchell, Allan Zhou, Archit Sharma, Rafael Rafailov, Huaxiu Yao, Chelsea Finn, and Christopher D Manning. Just ask for calibration: Strategies for eliciting calibrated confidence scores from language models fine-tuned with human feedback. arXiv preprint arXiv:2305.14975, 2023.
[17] Mahdi Pakdaman Naeini, Gregory Cooper, and Milos Hauskrecht. Obtaining well calibrated probabilities using bayesian binning. In Proceedings of the AAAI conference on artificial intelligence, Vol. 29, 2015.
[18] Charles Corbière, Nicolas Thome, Avner Bar-Hen, Matthieu Cord, and Patrick Pérez. Addressing failure prediction by learning model confidence. Advances in Neural Information Processing Systems, Vol. 32, , 2019.
[19] Jane Pan, Tianyu Gao, Howard Chen, and Danqi Chen. What in-context learning" learns" in-context: Disentangling task recognition and task learning. arXiv preprint arXiv:2305.09731, 2023.
[20] Yuxian Gu, Li Dong, Furu Wei, and Minlie Huang. Pre-training to learn in context. arXiv preprint arXiv:2305.09137, 2023.
[21] Lean Wang, Lei Li, Damai Dai, Deli Chen, Hao Zhou, Fandong Meng, Jie Zhou, and Xu Sun. Label words are anchors: An information flow perspective for understanding in-context learning. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 9840-9855, Singapore, December 2023. Association for Computational Linguistics.
[22] Ganesh Jawahar, Benoît Sagot, and Djamé Seddah. What does bert learn about the structure of language? In ACL 2019-57th Annual Meeting of the Association for Computational Linguistics, 2019.
[23] Gabriel Ilharco, Marco Tulio Ribeiro, Mitchell Wortsman, Ludwig Schmidt, Hannaneh Hajishirzi, and Ali Farhadi. Editing models with task arithmetic. In The Eleventh International Conference on Learning Representations, 2022.
[24] Xiaochuang Han, Daniel Simig, Todor Mihaylov, Yulia Tsvetkov, Asli Celikyilmaz, and Tianlu Wang. Understanding in-context learning via supportive pretraining data. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 12660-12673, 2023.
[25] Xiaochuang Han and Yulia Tsvetkov. Orca: Interpreting prompted language models via locating supporting data evidence in the ocean of pretraining data. arXiv preprint arXiv:2205.12600, 2022.
[26] Emily Sheng and David Uthus. Investigating societal biases in a poetry composition system, 2020.
[27] Ona de Gibert, Naiara Perez, Aitor García-Pablos, and Montse Cuadros. Hate Speech Dataset from a White Supremacy Forum. In Proceedings of the 2nd Workshop on Abusive Language Online (ALW2), pp. 11-20, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[28] Ioannis Mollas, Zoe Chrysopoulou, Stamatis Karlos, and Grigorios Tsoumakas. Ethos: an online hate speech detection dataset, 2020.
[29] Maria Pontiki, Dimitris Galanis, John Pavlopoulos, Harris Papageorgiou, Ion Androutsopoulos, and Suresh Manandhar. SemEval2014 task 4: Aspect based sentiment analysis. In Preslav Nakov and Torsten Zesch, editors, Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014), pp. 2735, Dublin, Ireland, August 2014. Association for Computational Linguistics.
[30] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R Bowman. Glue: A multi-task benchmark and analysis platform for natural language understanding. In International Conference on Learning Representations, 2018.
## A Datasets
The datasets used in this paper are shown in the Table 3
Table 3 Datasets used in this paper.
*To construct inputs of appropriate length, we remove data points with lengths exceeding 500 from the Ethos, and the number of the remaining data is 980 .
## B Prompt Patterns
In this paper, we use a minimum prompt template. For each task, we design various templates as shown below.
For single-sentence classification datasets $(x, y)$, we use:
Input: <x>, Label: <y> \n
..
Input: $\langle x\rangle$, Label:
For aspect-based sentiment classification datasets $((x, a), y)$, we use:
Input: <x>, Aspect: <a>, Label: <y> \n
Input: <x>, Aspect: <a>, Label:
For double-sentence classification datasets $\left(\left(x_{1}, x_{2}\right), y\right)$. we use:
Input: <x1>, Text 2: <x2>, Label: <y> \n
Input: <x1>, Text 2: <x2>, Label:
## C Full Results: $\lambda$ - Accuracy
The rest of the results in 3.2 and Fig. 1 are shown in Fig. 4.
GPT-J, SemEval'14-Laptops
GPT-J, GLUE-RTE
Figure 4 The rest of the results in 3.2 and Fig. 1.
. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-2.pdf | # 日本語 LLM 構築におけるコーパスクリーニングの網羅的評価
水本 智也 ${ }^{1}$ 小林 滉河 ${ }^{1}$ 佐藤潤一1 柴田 知秀1
${ }^{1}$ SB Intuitions 株式会社 2 京都大学大学院 情報学研究科
\{kenta.shinzato, sho. takase, shun.kiyono, ryokan. ri, takuya.kato, tomoya. mizumoto,
koga.kobayashi, junichi.sato, tomohide.shibata\}@sbintuitions.co.jp
## 概要
本稿では日本語 LLM の事前学習用のコーパスをクリーニングすることがモデルの性能向上に有効であることを示す.評価実験として,クリーニングの条件を変え 1.3 B パラメータの日本語 LLMを学習し, 複数の質問応答タスクおよび事後学習後の自由記述質問応答における性能を比較した. その結果,計算資源が比較的限られている場合(250B トークンの学習) では,クリーニングによりモデルの性能が向上し, 計算資源が十分な場合 (1Tトークンの学習)では,クリーニングにより性能維持,タスクによっては性能向上することを確認した.
## 1 はじめに
大規模言語モデル (Large Language Model,LLM) は汎用的な自然言語処理アプリケーションの基盤となっている [1,2]. LLM の性能はパラメータ数と事前学習のデータ量に対数比例すると報告されており [3],性能向上のためには大量のコーパスが必須である.
ウェブテキストを収集した Common Crawl ${ }^{1)}$ が大規模コーパスとして主に使われているが,数多く含まれるワードサラダのような不自然なテキストを除去することの重要性が指摘されている $[4,5]$. 英語のコーパスクリーニングについては経験的な知見が蓄積されつつあるが,それら知見を得るには膨大な計算資源が必要なため, 網羅的調査の障壁となっている.そこで日本語をはじめ,英語以外の言語については言語判定,文の長さによるフィルタリング,重複文除去のような,言語毎に設計した処理が不要な基本的な処理のみが利用されている $[6,7]$.
このような状況を受けて本研究では,日本語 LLM 構築におけるクリーニング手法の効果を検証する。
図 1 BASE に各クリーニング手法を適用した際の学習データの量(含まれるトークン数)。なお,BASE は Common Crawl に基本的な前処理を適用したコーパス.
検証する手法は,質の高い文書から N-gram 言語モデルを構築して Perplexity の高い文書を除去する手法(LM),記号の羅列や広告などに見られる人工的な定型句を多く含む文書を除去するルールベースの手法(Rule),類似した文書を除去する手法(Dedup) の3つである。これらを適用することで,質の高い文書の割合が増加し学習効率が高くなると予想される反面,学習データの量が半減する(図 1)ため,十分な計算資源を確保できる場合には LLM の性能が伸び悩む可能性もある. 本稿の実験を通して,1.計算資源が限られている場合,すなわち基本的な前処理を適用したコーパス(BASE)全てを学習できるほどの資源がない場合,クリーニングを行った方が性能が良いこと,2. 計算資源が十分にある場合でもクリーニングにより性能は維持あるいは改善されることを示す. また,各クリーニング手法を分析し, それぞれの有効性についても議論する。
## 2 クリーニング手法
本研究で利用するクリーニング手法について説明する.なお CCNet を用いた基本処理と重複段落の除去を除き,クリーニングにはテキスト処理ライブラリである HojiChar $[8]^{2)}$ を利用した.
表 1 Rule における処理の一覧.
文長フィルタ:100-200,000 字の範囲外の文書を除去
制御文字などの非表示文字の除去
単一文字を 200 回以上繰り返している文書の除去
特定の文字列パターン (日付/URL/Copyright/ナビゲーションメ
ニュー/HTML タグ) 等に合致する行の削除
複数行にわたり先頭が一致する場合,1つを残して削除
句読点を含む記号, 空白, 絵文字, その他特殊な文字を一定の割合以上含む文書を除去
成人向け/広告キーワードに合致する文書の確率的除去
文書内での N-gram の頻度を元に, 繰り返しの多い文書を除去
形態素解析し, 名詞の割合が 0.8 以上の文書を除去
## 2.1 基本処理: CCNet による処理
Common Crawl の前処理として,コーパスのクリーニングを行うツールセットである CCNet [7] を用い, 重複段落除去と言語判定を適用した. 重複段落除去では Common Crawl のスナップショットを $5 \mathrm{~GB}$ に分割し, 分割された各ファイル内で重複している段落3)を除去する。これにより定型文や日付からなる段落などが除去できる。言語判定には fastText [9] を用いる. fastText は文字 $\mathrm{N}$-gram を素性とし,与えられた文書がどの言語であるかについて,0から1の値のスコアを付与する. ここでは日本語のスコアが 0.5 以上の文書を抽出する.
## 2.2 LM: N-gram 言語モデルによる処理
基本処理だけでは除去できない,日本語としては不自然な文書が存在する。例えば「こたつ掛け布団スウェード調パッチワーク円形冬…」のような広告に見られるキーワードの羅列や「全球网雅思‥」のような言語判定をすり抜けた外国語などがこれにあたる。こうした文書を除去するため,質の高い日本語文書で学習した $\mathrm{N}$-gram 言語モデルで Perplexityを計測し,その値が高い文書を除去する。言語モデルの実装として, Kenser-Ney Smoothing [10]を適用した 2-gram の言語モデルを, MeCab [11] で単語分割を行った Wikipedia 9 日本語記事で学習した ${ }^{4)}$. これを用いて計算した Perplexity において,コーパス内上位 $10 \%$ 質が低い文書として除去する。
## 2.3 Rule: ルールベースの処理
表 1 に示したルールを用いてクリーニングを行う.例えば名詞の割合が 0.8 以上の文書を除去することで「ブレスレットダウンコートマフラー‥」というような名詞の連続からなる文書を除去できる。
3)実装上はファイル上の 1 行を 1 段落とみなして処理する.
4) N-gram 言語モデルの実装には KenLM [12]を用いた.
## 2.4 Dedup: 類似文書 - 重複文書除去
同一のテンプレートから生成された文書など, ウェブテキストには類似した文書が散見される。
Lee ら [4] はこのような文書を除去することで LLM の学習効率が向上すると報告している. Lee らと同様,本研究でも MinHash LSH [13] を用いて類似した文書を重複とみなし除去を行う,具体的には文書中の 5-gram 集合についてハッシュ関数を適用し,文書間の Jaccard 係数が設定した閾値を超えた場合に重複とみなして除去した ${ }^{5}$ ). 閾値は既存研究 [14]を参考に設定した.この処理により,例えば付録 Aに示したような文書ぺアが除去される。
また, Penedo ら [5] が指摘しているように, Common Crawl は同一のウェブページをクロールしていることもあるため, 取得元 URL が同一である文書も重複とみなして除去した。
## 3 実験設定
## 3.1 事前学習用コーパス
実験用の大規模なコーパスとして, Common Crawl の 2021 年 11 月から 2023 年 6 月までのスナップショットをダウンロードした. また近年では, Multilingual C4 (mC4) [6,15]をはじめとして,クリー ニング済みの Common Crawl $[16,17]$ も配布されている. 本稿では A) ダウンロードした Common Crawl に 2.1 節で説明した基本処理を適用したコーパス, B) $\mathrm{mC} 4$ 内の日本語コーパスを組み合わせたものを BASE と呼び,そこに2節で紹介したクリーニング手法を適用していく. なお $\mathrm{mC4}$ は 2.1 節の基本処理と同様に,言語判定や重複除去が行われており,加えて,200 文字以上の文を 3 文以上含む文書のみを抽出するという処理がなされている.
各クリーニング手法を適用した際の,コーパス内のトークン数の変化を図 1 に示す. トークン数は, BASE に SentencePiece [18] の Unigram 言語モデルを適用して構築したトークナイザで計数しており,このトークナイザは事前学習モデル構築でも利用する. BASE の時点では 900B トークン程度含まれているが,LM,Rule,Dedupのすべての処理を適用した場合(図 1 における+All)では 400B トークン程度と,BASEの半分以下のサイズとなる.
5) MinHash LSH の実装にはdatasketchを用いた: github.com/ekzhu/datasketch
## 3.2 事前学習モデルの学習設定と評価指標
本研究では GPT $[1,19,20]$ と同様, Transformer [21] を用いて LLM を構築する。様々な条件で実験を行うため, パラメータ数は比較的軽量な $1.3 \mathrm{~B}$ とした. 具体的には GPT-NeoX [22] のリポジトリにある,1.3B パラメータの設定を使用する ${ }^{6}$. 各バッチに含まれるトークン数は $4 \mathrm{M}$ トークンとし, 更新回数を変化させることによって事前学習に利用するコーパス量を変動させる.
事前学習モデルの評価は zero-shot および fewshot [1] の設定で,下記 3 つのデータセットを用いて行う. モデルに与えたプロンプトと生成時のハイパーパラメータ等の詳細設定は付録 $\mathrm{C}$ に記載する.
AI 王クイズの問題文を入力とし,その解答を出力する. AI 王公式配布データセット Version 2.07)中の開発セットを用い,正答とモデル出力の完全一致率で評価する。プロンプトに few-shot 事例は含めず,zero-shot の設定で評価を行う.
JSQuAD Wikipedia の段落とその内容に関する質問文を入力とし,解答を段落から抽出する [23]. 開発セットにおける完全一致率で評価する。学習セットからサンプルした 3 つの事例を含めて各事例のプロンプトを構築し,3-shot の評価を行う.
JCommonSenseQA (JCQA) 常識推論能力を評価する問題文と 5 つの選択肢から解答を選択する [23]. 開発セットにおける正答率を 2-shot で評価する.
## 3.3 事後学習モデルの学習設定と評価指標
事前学習コーパスの量や質と LLM の学習効率の関係を議論した研究の多くは,事前学習モデルの評価のみにとどまっている $[4,24]$ が,実用的には事後学習後の性能も重要である. 本研究では, 実応用での性能の一端として,事前学習した LLM について Instruction Tuning [25] を行い, モデルが人間の指示をどの程度理解し,適切に返答できるか確認する。学習データには理研が公開している 2,903 件の日本語インストラクションデータ [26]を用いた.
事後学習モデルの評価には Rakuda Benchmark ${ }^{8)}$ を使用する. Rakuda Benchmark は自由記述型の質問に言語モデルが回答するタスクで,日本の歴史,地理,政治,社会の各 10 問,合計 40 問からなる. 2 つの
6) github.com/EleutherAI/gpt-neox/blob/main/configs/1-3B.yml
7) sites.google.com/view/project-aio/dataset
8) github.com/yuzu-ai/japanese-1lm-ranking表 2 計算資源が限られている場面での正解率.
表 3 計算資源が十分にあり,BASE を 1 周学習できる場面での正解率.
モデルの回答をペアとし,優れた回答を GPT-4 [27] に選択させることで 2 モデルごとの比較を行う.
## 4 実験結果と考察
実験を通して,1. 計算資源が限られている場合, 2. 計算資源が十分であり,BASEコーパスを 1 周学習できる場合におけるクリーニングの効果を検証する. また,2節で紹介した各手法の効果を検証する。
## 4.1 事前学習におけるクリーニング効果
まず計算資源が限られており, モデルの学習に利用可能なトークン数に制限がある場面を考え,250B トークンまでの学習を行った9). 結果を表 2 に記す. +All のコーパスで学習したモデルは BASE で学習したモデルよりも AI 王,JCQA で性能が良く,また,JSQuAD でも同等の性能を達成していることが分かる.このことから,計算資源が限られている場合には様々なクリーニングを行い,学習コーパスの質を高めることが重要であると言える。
次に BASE 1 周学習できる程度には計算資源が十分ある状況を考える。図 1 のとおり,BASE と+All はそれぞれ約 900B,400B のトークンを含んでいる. ここでは議論を簡単にするために,1T トークンと 500B トークンをそれぞれのコーパス 1 周分として
わち BASE1 周と同等の計算資源を用いて学習を行ったモデルも比較する。表 3 に結果を記す. 表 3 より,それぞれのコーパスを 1 周した場合,すなわち, BASE の 1T トークンと+All の 500B トークンを比較した場合には BASE の 1T トークンの方が性能が高いことが分かる. しかしながら, 日本に特有の知識を必要とする AI 王では+All の 500B トークンは
図 2 1T トークンまで学習させた場合の BASE と+All の $\mathrm{AI}$ 王による性能比較. BASE は約 1 周, +All は約 2 周学習させた. +All のユニークなデータ量はクリーニングによって BASE の半分以下となっているが,学習に用いるトークン数が同じ場合には常に BASE よりも性能が高い.
表 4 事後学習後の性能比較. 各セルは「左の列のモデルの勝利数-上の行のモデルの勝利数」を示す. 括弧内は引き分けを表す.
また+All を1Tトークン学習した場合には BASE の 1Tトークンよりもわずかに高い性能を達成している.この結果は, 各種クリーニングに伴い学習コー パスが減少し,コーパスを 1 周以上する状況であっても,学習に用いる計算資源が同等であれば性能に毀損はないことを示唆している.
また,1Tトークンまでの学習において,各トークン数での AI 王の正解率を図 2 に示した. この図からも,同等の計算資源を用いれば+All は BASE よりも常に高い性能を達成することが分かる10).
## 4.2 事後学習への影響
BASE を 1T トークン学習したモデルおよび+All を 500B トークン,1T トークン学習したモデルについて事後学習を行い, Rakuda Benchmark で評価した.結果を表 4 に示す.
この表から,+All を事前学習に用いたモデルは, BASE を事前学習に用いたモデルよりも高い性能を達成していると分かる. すなわち,様々なクリーニングを適用して質を高めたコーパスでの事前学習は,事後学習後のモデルの性能も高めると言える。
10)学習に用いたトークン数に性能が対数比例していることからパラメータ数が不足して性能上昇が停滞していることはないと考えられる。付録 B にパラメータ数を $3.6 \mathrm{~B}$ に増やした場合でも同傾向の結果が得られることを示す.表 5 各クリーニング手法を適用した場合の性能比較
## 4.3 各クリーニング手法の効果検証
2 節で紹介した各手法が事前学習にもたらす効果について検証する。 BASEに対してLM, Rule, Dedup をそれぞれ個別に適用し,得られたコーパスで $250 \mathrm{~B}$ トークンの学習を行い,比較する。結果を表 5 に示す. LM と Rule は共に評価値を向上させており, コーパスの質を高めた効果が事前学習モデルの性能向上につながっていることがわかる. 特に Rule は性能を大きく向上させており, 日本語に特化したクリーニングの有効性を示している.
一方で,Dedup はすべてのデータセットでの性能が下がっている. この結果は既存研究の知見 [4] に反するが,2つの原因が考えられる.ひとつは,類似文書の閾値の設定が低く,多くの有用な文書を除去してしまっている可能性である. もうひとつは, URL を用いた重複文書除去において,同一URL だが内容が異なる文書を除去している悪影響である。 Dedup で有用な文書を除去することなく,性能を向上させるようなクリーニングを行うことができれば+All の性能もより高くなると考えられるため,原因究明に努めたい。
## 5 おわりに
日本語 LLM の事前学習コーパスにおける日本語に応じたクリーニングの効果を,事前学習・事後学習の実験を通じて検証した. 基本処理に加えて様々なクリーニングを適用しコーパスの質を高めることは,計算資源が限られている場合はモデルの性能を向上させ,十分に計算資源がある場合でも性能を維持または改善させることを示した.
4.3 節で記したさらなる検証に加え,今後は他言語,特に英語コーパスを事前学習に利用する効果も検証したい. 英語コーパスを事前学習に追加することで,言語横断的な知識獲得が期待されるが,AI 王のような日本に特有の知識を問うタスクでも効果的であるかは不明瞭であり,より良い日本語 LLM 構築には何が必要かを明らかにしていきたい.
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, et al. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[2] Hugo Touvron, Thibaut Lavril, Gautier Izacard, et al. LLaMA: Open and Efficient Foundation Language Models, 2023.
[3] Jared Kaplan, Sam McCandlish, Tom Henighan, et al. Scaling Laws for Neural Language Models, 2020.
[4] Katherine Lee, Daphne Ippolito, Andrew Nystrom, et al. Deduplicating Training Data Makes Language Models Better. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 84248445. Association for Computational Linguistics, 2022.
[5] Guilherme Penedo, Quentin Malartic, Daniel Hesslow, et al. The RefinedWeb Dataset for Falcon LLM: Outperforming Curated Corpora with Web Data, and Web Data Only, 2023.
[6] Linting Xue, Noah Constant, Adam Roberts, et al. mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498. Association for Computational Linguistics, 2021.
[7] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, et al. CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 4003-4012. European Language Resources Association, 2020.
[8] Kenta Shinzato. HojiChar: The text processing pipeline, 2023.
[9] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of Tricks for Efficient Text Classification. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 427-431. Association for Computational Linguistics, 2017.
[10] Reinhard Kneser and Hermann Ney. Improved backing-off for Mgram language modeling. In 1995 International Conference on Acoustics, Speech, and Signal Processing, Vol. 1, pp. 181184 vol.1, 1995.
[11] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237. Association for Computational Linguistics, 2004.
[12] Kenneth Heafield. KenLM: Faster and Smaller Language Model Queries. In Proceedings of the Sixth Workshop on Statistical Machine Translation, pp. 187-197. Association for Computational Linguistics, 2011.
[13] Andrei Z. Broder. On the resemblance and containment of documents. In Proceedings. Compression and Complexity of SEQUENCES 1997 (Cat. No.97TB100171), pp. 21-29, 1997.
[14] Leo Gao, Stella Biderman, Sid Black, et al. The Pile: An 800GB Dataset of Diverse Text for Language Modeling, 2020.
[15] Colin Raffel, Noam Shazeer, Adam Roberts, et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[16] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, et al. Unsupervised Cross-lingual Representation Learning at Scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451. Association for Computational Linguistics, 2020.
[17] Julien Abadji, Pedro Ortiz Suarez, Laurent Romary, and Benoît Sagot. Towards a Cleaner Document-Oriented Multilingual Crawled Corpus, 2022.
[18] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the $\mathbf{2 0 1 8}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71. Association for Computational Linguistics, 2018.
[19] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
[20] Alec Radford, Jeff Wu, Rewon Child, et al. Language Models are Unsupervised Multitask Learners. 2019.
[21] Ashish Vaswani, Noam Shazeer, Niki Parmar, et al. Attention is All you Need. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
[22] Sidney Black, Stella Biderman, Eric Hallahan, et al. GPT-NeoX20B: An Open-Source Autoregressive Language Model. In Proceedings of BigScience Episode \#5 - Workshop on Challenges \& Perspectives in Creating Large Language Models, pp. 95-136. Association for Computational Linguistics, 2022.
[23] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese General Language Understanding Evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966. European Language Resources Association, 2022.
[24] Niklas Muennighoff, Alexander M. Rush, Boaz Barak, et al. Scaling Data-Constrained Language Models. In Thirty-Seventh Conference on Neural Information Processing Systems, 2023.
[25] Jason Wei, Maarten Bosma, Vincent Zhao, et al. Finetuned Language Models are Zero-Shot Learners. In International Conference on Learning Representations, 2021.
[26] 関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. Ichikara-instruction: LLM のための日本語インストラクションデータの構築. 言語処理学会第 30 回年次大会, 2024.
[27] OpenAI, Josh Achiam, Steven Adler, et al. GPT-4 Technical Report, 2023.
[28] Deepak Narayanan, Mohammad Shoeybi, Jared Casper, et al. Efficient large-scale language model training on GPU clusters using megatron-LM. In Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis, SC '21, pp. 1-15. Association for Computing Machinery, 2021.
卜 > FLD SRVC KIT BL 2 PCKT 24X24 の概要
高角サッカー選手相手に得点の映像素材 InHigh angle drone shot of a soccer player dribbling past the defenders and scoring on the apposing team $\backslash n$ 高角サッカー選手相手に得点:ストック動画・映像\nサッカー
トレーニング動画 $\backslash n$ 競争動画\nプレーする
図 3 LM で除去される文書の例.
Kapeli Dash のダウンロード - Kapeli Dash プログラムに関する情報 - OTFE\nKapeli Dash アプリケーションの可能性次に掲げるリストは、Kapeli Dash プログラムがファイルのデー タ編集および变換の両方をサポートするファイル拡張子のリストです。特定の拡張子が Kapeli Dash プログラムでサポー 卜されている場合でも、(以下省略)
Puyo Tools のダウンロード - Puyo Tools プログラムに関する情報 - OTFE \nPuyo Tools アプリケーションの可能性次に掲げるリストは、Puyo Tools プログラムがファイルのデータ編集および変換の両方をサポートするファイル拡張子のリストです。特定の拡張子が Puyo Tools プログラムでサポートされている場合でも、(以下省略)
図 4 Dedup で除去される文書ぺアの例。
## A LM,Dedup の除去サンプル
LM,Dedup で除去される文書の例を図 3,4亿記載する。
## B 3.6B パラメータモデルでの比較
4 節よりもパラメータ数が多いモデルでの比較を行う。具体的には 3.6B パラメータのモデルを BASE,+All で学習し,比較を行う。層の数などのハイパーパラメータは Narayanan らに従った [28].
BASE,+All それぞれで 250B トークン学習した際の結果を表 6 に示す. 4 節での実験と同様に,計算資源が限られているとして,学習を $250 \mathrm{~B} ト$ トーンに限った場合には+All で学習したモデルの方が高い性能を達成している。学習に用いたトークン数と $\mathrm{AI}$ 王での正解率の推移を図 5 に示す. この図から,3.6B パラメータにおいても,学習に費やした計算資源が同等であれば,様々なクリーニングを適用し,質の高いコーパスで学習したほうが常に高い性能を達成できることが分かる.
## C事前学習モデルの評価に用いた プロンプト
図 6, 7 と 8 に事前学習モデルの評価に用いたプロンプ卜例を記載する。いずれも解答部分を鉤括弧でくくり, モデルには“」”まで出力させることで生成箇所を抽出している.
生成時のハイパーパラメータは基本的に貪欲法を採用した。 AI 王のみ候補数 5 のビームサーチを採用し, repetition penaltyを 3.5 と設定した.表 $63.6 \mathrm{~B}$ パラメータでの比較.
図 5 3.6B パラメータのモデルについて,学習トークン数と AI 王の正解率の推移.
映画『ウェスト・サイド物語』に登場する2つの少年グルー プといえば、シャーク団と何団?答えは「ジェット団」
図 $6 \mathrm{AI}$ 王のプロンプトと正答例.
質問に対する回答を文章から一言で抜き出してください.
図 $7 \mathrm{JSQuAD}$ のプロンプトと正答例.
正しい答えは何でしょう?
図 $8 \mathrm{JCQA}$ プロンプトと正答例. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-3.pdf | # 汎用言語モデルは日本語学習者データに基づく 語彙難易度を予測できるのか
梁震 ${ }^{1}$ 彭悦 ${ }^{1}$ 笹尾洋介 ${ }^{2}$
1 京都大学大学院 人間 - 環境学研究科 ${ }^{2}$ 京都大学 国際高等教育院
ryo. shin.j85@kyoto-u.jp peng.yue.35z@st. kyoto-u. ac.jp
}
sasao. yosuke.8n@kyoto-u. ac. jp
## 概要
日本語学習における語彙習得の重要性を踏まえ,本研究では汎用言語モデル GPT-4 ${ }^{i}$ を用いて日本語の語彙難易度を分析した.具体的には, GPT-4 に語同士の難易度関係を出してもらい,その結果を基に機械学習で語彙難易度を算出する方法を採用した.検証には,中国語母語話者にとっての日本語語彙難易度が判明している語を用いて,本稿の手法で語彙の難易度を推定した.その結果, 既存の調査結果の 99\%信頼区間内に収まるデータの割合は $71 \%$ と比較的高く,従来の手法よりも迅速かつ広範囲にわたる難易度評価が可能となった.この研究により, 日本語教育における効果的な教材開発や教授法の改善に寄与する可能性が示された.
## 1 はじめに
言語の学習において語彙学習は極めて重要であり,特に日本語は,諸言語の中で比較的多くの語を覚える必要のある言語であり,新聞や雑誌を自由に読みこなすには最低 3 万語を理解できないといけないことが指摘されている[1].膨大な量の語彙をより効率的に学習できるように, 過去に様々な基本語彙を選定するための研究調査が行われた.代表的な方法として, 言語学専門家が主観的に決定する方法, 各種の言語資料の分析を踏まえた(特に使用頻度の高さと使用分野の広さの視点からの)分析に立脚する方法,及びある個人や集団の理解できる語彙についての心理実験の結果に基づく方法があるが,使用頻度の低い語彙の中にも重要な語彙が含まれている可能性も指摘されている[2]ため, 基本語彙の選定や日本語教材作成, 語彙指導を行う際に,より客観的かつ実用的な学習対象を選ぶには,3つ目の方法のよう
に,語彙の理解度(語が表す概念が理解されているかどらかを指しているため,本稿では「難易度」という)を踏まえることが必要であらう。語彙の難易度に関して,易しい語から難しい語へと徐々に学習することが提唱されているが,学習者によって難易度の順序が異なる可能性も考えられる [3].また,林[4]も語の難易度は日本語学習者の背景知識に依存し, 学習者の母語の違いが考慮されていないことを指摘した.彭他[5]は中国語母語話者を対象に調べた結果, 日本語語彙の使用頻度と学習者にとっての語彙難易度とは弱い相関しかないことが示されたため,語彙の難易度推定に関して,使用頻度だけでは日本語語彙の難易度を判断することが難しいことがわかる.
語彙難易度の測定が重要であるのにも関わらず大規模な測定が出来ていない理由としては,語の彙難易度の計測には大規模な調査実験をする必要があるためである.そのため,語彙指導を行う際には語彙頻度に基づいている場合が多い.語彙頻度に基づいた語彙テストの場合,学習者の母語の違いを十分に考慮していない.例えば,「喜劇」のような漢字由来の語は,使用頻度が低く難易度が高いとされがちであるが,中国語母語話者にとっては漢字の意味から直感的に理解可能であり,実際の難易度は低くなる傾向がある.
このような背景を踏まえ,本研究では,汎用言語モデル GPT-4 を用いた新たな語彙難易度評価方法を提案する.GPT-4 を含む近年の汎用言語モデルは,自然言語で与えた指示に従って様々なタスクをこなす汎用性を獲得してきている,要約・推敲・翻訳,質問応答,対話,算術・論理推論,コーディングといった多様なタスクを実行できる。しかも,個々のタスクの性能は従来の単機能のモデルに比肩するか,
図 1 研究ワークフロー
場合によっては超えるという報告も出てきている [6].GPT-4 のトレーニングデータセットは, インター ネット上の広範囲なテキストから構成されている. データセットの中には多種多様な言語の母語話者のデータがあるため, 学習者の母語別の日本語難易度の分析も期待できる.
## 2 関連研究
日本語語彙の難易度判定の問題を解決するために,水谷他[3]は教科書コーパス語彙表を単語難易度の基準データとし, また, 単語難易度と相関が高いと考えられる 3 種の手がかりを素性として用い, 機械学習によって語の難易度推定を試みた.しかし, 日本語教育語彙表で難易度の基準を設定することが妥当であるか不明である.また,この方法では学習者の母語の影響は考慮されていない.それに対して, 林[4]は,中国語を母語とする日本語学習者を対象に,日本語の辞書と中国語の辞書における語義の違いや漢字表記の違いに基づいた難易度の推定方法を提案した. しかし, この研究では中国語母語話者を対象とした場合のみ議論しており, 母語の異なる学習者への応用までは至ることは難しいため, より汎用的な方法を見つけることが期待される.この 2 つの研究を踏まえて, より応用範囲の広い, かつ, 学習者の母語を考慮した難易度推定の方法の開発は重要であると言える。
語彙の難易度について,研究により定義が分かれているが,一般に語が表す概念の難しさとされる場合[3]が多い.本研究で用いる 125 語のデータセットの難度はラッシュ分析により算出したものである. ラッシュ分析における項目難度推定は標本に依存せず,平均項目難度を 0 として計算されているため,算出された数値は相対的な値であるが,任意の 2 語間の難度の比較は可能であり, 本稿での研究には十分に利用できるデータと言える.
## 3 研究目的と方法
本研究の目的は, 汎用言語モデルは日本語の語彙難易度を理解できるかどうかを究明することによつて,様々な言語を母語とする日本語学習者にとっての語彙難易度推定の方法を提案することである.具体的には, 汎用言語モデルに一部の語彙の難易度関係を学習させた上で出力された語彙難易度をもとに作成した機械学習モデルの予測値が,実際の語彙難易度とどれくらい一致しているかを調べる。
本稿では, 汎用言語モデルによる語と語の難易度比較の論理値(-1 もしくは1のデータ)をさらにニユーラルネットワーク機械学習で語彙難易度を推定する手法を採用する.
検証のために, この研究では, 松下他[7]で実施された語彙テストの分析結果の一部を用いている[4].松下他[7]は,日本国内外にいる,様々な言語を母語とする日本語学習者を対象に, VSTRJ-50K ともう一つの漢字テスト KCTを実施した後, さらに, ラッシユ分析により各問に関連している語の平均項目難度を算出したが,本研究で使用したのは,中国語母語話者 201 名の VSTRJ-50K の結果による 125 語の平均項目難度であった。
VSTRJ-50K テストの詳細は以下の通りである.まず, 佐藤他 $[8]$ こよると,このテストは, 松下 $[9]$ の「日本語を読むための語彙データベース」の使用頻度順位をもとに,上位 50000 語のうち,凡そ 400 語毎に 1 語を選ぶように, 125 語を無作為抽出した上で, 1 語につき 1 問で語の意味についての選択問題が出題されている.また,このテストは筆記試験(時間制限 40 分以内)であり, 各問において, 目標語自体, その目標語を使った 1 つの非定義文, 及び 4 つの意味が日本語文字により提示され, 受験者が回答時に 4 つの選択肢の中から一つを選ぶ形となっている.ただし,「ぜんぜんわからないときは答えないでください」との指示も示されている.それから, 評価について, 1 問 1 点で計算された得点(満点は 125 点)
$\times 400$ で各受験者の語彙サイズを推計できるが,松下[7]のラッシュ分析で用いられたのは, 各受験者の得点の素点であった.この研究で得られた 125 語の難易度を含むデータセットを用いる。
汎用言語モデルに直接語の難易度に関する推定を問い合わせる方法を試みたが大まかな数値しか出力されなかった.この方法では得られた結果は一般的な推測に留まり, 実用的な精度に欠けていた。
そこで図 1 で示された手順のように,研究の方針を変更した.まず, 項目難度が判明している 125 語のデータセットを,(1) プロンプト(付録 A)に記載する 25 語, (2) 単語間難易度比較用 100 語, の 2 つに分割した.まず,GPT-4 にプロンプトに記載されている情報を学習させることで, 語の難易度に影響を与える具体的な要因を推定させることが容易となる.
残りの 100 語については, 2 つずつの組み合わせの語彙難易度の比較し, 相対的な難易度を評価する方法が採用された.語彙難易度の比較データは, 後続のニューラルネットワーク機械学習による語彙難易度の分析用データとした.
## 4 実施と結果
## 4. 1. プロンプトとリクエスト
GPT-4 を含む汎用言語モデルは対話形式で入力することができる。その際に,適切な文章(プロンプ卜)を用いることで期待する返答を得ることができる.プロンプトは, 富嶋[10]のプロンプト紹介を参考に作成した。
本研究では, 具体的な 125 語をデータセットから無作為に選出した 25 語を含むプロンプトを構築し, GPT-4 に提供した.これにより, 汎用言語モデルが中国語母語話者にとって難易度に影響する要因を判断するための情報を学習させることができる.これは,言語処理タスクにおける GPT-4 の適応性を利用し, より複雑な言語理解の課題への適用させるためである.残りの 100 語を 2 語ずつ難易度の比較をさせた. そのため, プロンプトは組み合わせ論的に 4,950 通りある。これらのプロンプトとそれに対する GPT-4 の反応の具体的な例は, 付録 A 及び付録 B にて詳述される.これらの 4,950 のプロンプトをPython 3.11.7
を用いて gpt-4-1106-preview モデルの API ヘリクエストを行った。
## 4. 2 レスポンスの正規化
GPT-4 から得られる日本語のレスポンス (付録 B) は文章であり,正答率の統計分析および後続の語彙難易度算出のため, 論理値へと変換する必要性が生じる,具体的には, 比較される二つの語に関して,【単語 $\mathrm{A}$ 【難易度が【単語 $\mathrm{B}$ 】より高いと判断された場合には-1を割り当て,それ以外に 1 を割り当てる.
## 4. 3 語彙難易度比較の正答率
100 語の 2 つずつの組み合わせは 4,950 通りある.本研究では全て【単語 $\mathrm{B}$ 【方が松下他[7]のデータセットで語彙難易度が高いものを選んだため, 「1」 が正答である。統計結果は,「1」が 3732,「-1」が 1218 であった.そのため, GPT-4 の正答率の割合は 75.39\%である。これは,GPT-4 は比較的高い割合で語彙難易度の関係性を理解していると言える.正規化したデータから見るに,語彙判断を誤った語に偏りがある.例えば,「完徳」という語の語彙難易度は容易であると判断されているが実際は容易とは言えない.このような誤りが生じた理由は, プロンプトに記載した語の難易度を習得した結果,漢語は中国語母語話者にとって容易であると判断されたからだとリスポンスから推測できるが,実際中国語ではあまり使用されていない漢語が存在する.プロンプトに記載した語数が少なく, 以上のような特徴を把握することができなかったと考えられる。
## 4. 4 機械学習による語罙難易度の推定
前節では GPT-4 による語彙難易度比較の真理値の分析を行った.本稿の目的は, 汎用言語モデルによる語彙難易度分析であるため, さらに, 前節の真理値データセットを用いた語彙難易度の推測を行う。
それぞれの語に 100 個の真理值のデータがあるため, 回帰手法を用いれば連続值である語彙難易度を予測することが可能となる.本研究では, ニューラルネットワークを用いて語彙難易度の推定を行った。使用したネットワークは AutoKerasilによって見つけ
られたものであり, 100 個の真理値データを入力として受け取り,連続値である語彙難易度を出力する。 このモデルは, 以下の構造を持っている.入力層 (Input Layer)は 100 次元のベクトルを受け取り,カテゴリデータのエンコーディング (Multicategory Encoding)と正規化(Normalization)を行った後, 2 層の隠れ層(Dense)を経て, 最終的に 1 次元の出力を行う (Regression Head).このモデルには 4,522 個のパラメ一タがあり,このうち 4,321 個が訓練可能である.モデルの検証には, Leave-One-Out (LOO) クロスバリデーションを採用した.この手法では, データセットの各サンプルに対して,そのサンプルをテストデー タとし, 残りのすべてを訓練データとして使用する。 これにより,モデルの汎化能力を評価することができる.
## 4. 5 語彙難易度推測の結果と考察
ニューラルネットワーク機械学習の結果は以下の通りである.語彙難易度の予測結果を示す図 2 において,横軸は語の No., 縦軸は語の難易度である実際の難易度値(緑色の点)と予測値(赤色の点)は,全体的な傾向において相関が見られる.95\%信頼区間(青色の破線)と $99 \%$ 信頼区間(赤色の破線)内に予測值が収まっている割合は,それぞれ $61 \%$ と $71 \%$ と計算された.これは, 予測モデルが語彙難易度を概ね正確に推定できていることを示唆している.
図 2 語彙難易度予測結果
しかし,予測値と実際の難易度値との間にいくつかの外れ値が存在することも観察された.特に, 語彙難易度が低いと予測されたにもかかわらず,実際には難易度が高いと評価されている語がいくつか存在する.これは,モデルが特定の語の特性を充分に捉えきれていないことが原因と考えられる.また, モデルの訓練に使用されたデータセットの多様性が不十分である可能性も指摘できる.以上の結果から,提案したニューラルネットワー クモデルは,語彙難易度の推定において有効であると結論づけることができるが,モデルの精度をさらに高めるためには,追加の特徴量の導入やデータセットの拡充が必要であると言える。
## 5 おわりに
本研究では, 汎用言語モデル GPT-4を用いた日本語語彙の難易度分析方法を提案し,その有効性を検証した.日本語の語彙学習は, 学習者のコミュニケー ション能力や理解度の向上に不可欠であり, 特に語彙難易度は学習過程において重要な役割を果たす。語彙の難易度測定は,適切な言語テストの出題や教材開発に不可欠であるが,従来の方法では大規模な測定が困難であった。
本研究では,GPT-4 を使用して単語間の難易度関係を出力させ,その結果を基にニューラルネットワ一ク機械学習で語彙の難易度を算出する手法を採用した.この手法は, 松下他[7]の研究で使用された中国語母語話者にとっての日本語語彙難易度のデータセットを用いて検証され, その結果, 既存の調査結果の 99\%信頼区間内に収まるデータの割合は $71 \%$ と比較的高いことが示された.これは, 従来の手法よりも迅速かつ広範囲にわたる難易度評価が可能であることを意味する.本研究では, 中国語母語話者にとっての語彙難易度に焦点を当てたが,松下他[7]で実施された語彙テストの分析結果のデータセットに含まれている韓国語母語話者にとっての語彙習得難易度の推定も可能である. また,その他の母語話者にとっての語彙難易度についても,妥当性・信頼性を検証した語彙テストを作成すれば同様に本研究の方法を用いることが可能である.また, 今後の課題として,本研究では 25 語をプロンプトに記載して汎用言語モデルに学習させたが, 学習の語数の違いがどの程度精度に影響するのか検証する予定である。
## 謝辞
この研究において,佐藤ほか $[8]$ で開発された語彙サイズテストの問題, および松下ほか[ $[7]$ での実施結果のデータ(ラッシュ項目難度推定值データ)をご提供, また, 利用をご許諾くださった千葉大学佐藤尚子先生を代表とする研究チームの先生方に深く感謝いたします.
## 参考文献
[1] 坪根由香里, 鈴木理子, 阪本史代, 神谷道夫. 学習者から見た効果的な語彙の指導法・学習法一アンケート結果より一. 小出記念日本語教育研究会論文集, pp. 107-128, 2001.
[2] 佐藤浩史,笠原要,金杉友子,天野成昭. 単語親密度に基づく基本語彙の選定. 人工知能学会論文誌, 19(6), pp. 502-510, 2004.
[3] 水谷勇介,河原大輔,黒橋禎夫. 日本語単語の難易度推定の試み. 言語処理学会第 24 回年次大会発表論文集, pp. 670-673, 2018.
[4] 林妙玉, 白井清昭. 中国語母語話者を対象とした日本語単語の難易度推定. 情報処理学会第 84 回全国大会, 2, pp.75-76, 2022.
[5] 彭悦, 梁震, 笹尾洋介. 日中バイリンガルの音声版日本語語彙サイズテストの開発と検証. 日本語教育, pp. 93-108, 2023.
[6] 乾健太郎. ChatGPT の出現は自然言語処理の専門家に何を問いかけているか. 自然言語処理,30(2) pp. 274-274
[7] 松下達彦, 佐藤尚子, 笹尾洋介,田島ますみ, 橋本美香. 第二言語としての日本語語彙量と漢字力一第一言語と学習期間の影響一. 日本語教育, 178 , pp. 139-153,2021.
[8] 佐藤尚子,田島ますみ,橋本美香,松下達彦,笹尾洋介. 使用頻度に基づく日本語語彙サイズテストの開発一50,000 語レベルまでの測定の試み一.千葉大学国際教養学研究, 1, pp.15-25, 2017.
[9] 松下達彦. 日本語を読むための語彙データベース
(オンライン)
(2016 年 11 月 6 日)
http://www17408ui.sakura.ne.jp/tatsum/database.html \#vdri
[10] 富嶋正貴. ChatGPT プロンプト研究所. The En glish Teachers' Magazine, pp. November-11, 20 23
## 付録 A プロンプト
あなたは「日本語教育の専門家」です。
次の「1. 目的の定義」と「2. プロンプト」を元に、「3. 生成するもの」を「\#結果」の形式に合わせて生成してください。その際、「4.参照物」を参考にしてください。
1. 目的の定義:「二つの単語のうちどちらの単語が中国語母語話者にとって難しいのか知りたい。」
2. プロンプト:「二つの単語のうちどちらの単語が中国語母語話者にとって難しいか考えてください。」
3. 生成するもの:
- 「4. 参照物」の【難しさリスト】の要因を箇条書きで詳しく分析してください。ただし,
【難しさリスト】の単語は易しい単語から難しい単語へと並んでいます。
-「4. 参照物」の【条件】にある【単語A】と 【単語B】の難しさを分析してください。
- 「4. 参照物」の【条件】にある【単語A】と
【単語B】の難しさを分析した結果を箇条書きで出してください。
- 最後に【単語A】と【単語B】のうちで【難しい方の単語】を表示してください。ただし、【単語A】と【単語B】のいずれかを必ず選択すること。
4. 参照物 :
【難しさリスト】
サテライトなど松下(2021)のデータセット中無作為に25語選出した
【条件】
【単語A】:
【単語B】:
\#結果 :
(1)要因 :
(2)難しさ分析 :
(3)難しさ箇条書き :
(4)難しい方の単語:
図 3 プロンプトの内容
## 付録 B GPT-4 の出力
図 4 GPT-4 の出力 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-4.pdf | # LLM による合成文脈データを用いた 表のエンティティリンキング
大嶋 悠司 ${ }^{1,2}$ 進藤 裕之 1 寺西 裕紀 ${ }^{3,1}$ 大内 啓樹 1,3 渡辺 太郎 1
1 奈良先端科学技術大学院大学 2 株式会社メルカリ 3 理化学研究所
\{oshima.yuji.ov6, shindo, hiroki.ouchi, taro\}@is.naist.jp
hiroki.teranishi@riken.jp
## 概要
論文の表には実験結果などの重要な情報が含まれるため,表を解析して知識べースと紐づけるエンティティリンキングは有用な技術と期待されている.このタスクでは表のセルを読解して,それが指す知識ベースのエンティティと紐づけるには,幅広い文脈理解が必要になる.しかしながら,論文の本文からセルの文脈を適切に抽出する必要があるという課題があった. 本研究では,大規模言語モデルを活用し,セルの文脈を生成する合成文脈を提案する. このアプローチにより, 既存手法よりリンキング精度が 5 ポイント以上向上することを実証した. また,合成文脈は場合によって論文には記述されていない補助知識も補完されることを明らかにした。
## 1 はじめに
科学技術論文の情報解析は論文検索や読解補助,自動知識べースの構築など科学を加速させる多くの応用が期待される分野である. 特に情報科学技術分野の論文では,実験結果や実験に使用されたデータセット・タスク・評価指標などの重要な情報が論文中の表に記載されるため, 表の情報解析が重要視される. そのため情報科学論文の表に記載される情報を知識べースとリンキングするエンティティリンキング(EL)は有用な技術と期待され,手法やデータセットが提案されている $[1,2,3]$.
S2abEL[3] は,情報科学論文の表に対する EL のための大規模な評価データセットである.これは表のセルを入力として,その文字列が意味する Paper with Code(PwC)のエンティティを出力とするデー タセットである. 例えば表に Transformer という記述があった場合に, PwC 内の Transformer エンティティと紐付けることが正解となる. モデルは本文中
図 1 論文の表のセルに対するリンキング
や引用文献から Transformer の概念を理解し,知識ベース内を検索する必要がある。しかし,本文中からセルの文脈を抽出することが困難な場合がある。例えば,表のセルに手法の省略された名称のみ記載されるが,本文中にはその手法の正式名称が記載されている場合にそれらが同一のものであるとモデルが判断できない場合がある. また,例えば Transformer はよく知られた手法であるため, 本文中にはその説明が記載されていない場合がある. しかし, これらの表のセルに関連する本文の記述の抽出や補助的な情報の追加を人手で行うことは高いコストがかかる.
ここで本研究では機械学習モデルを使ったデータ拡張手法の一つである合成データを用いてこの課題を解決することを提案する.特に ChatGPT[4] や LLaMa2[5] などの大規模言語モデル(LLM)には高い言語理解能力があり,様々なタスクのためにデー タを生成できる. 本研究では,LLMを利用して特定のセルに関連する論文中の文脈を抽出したものを合成文脈データと呼ぶ. LLM に論文の本文を与え, リンキングしたい単語を中心に論文の要約を行うことでその単語の文脈を抽出することが可能である. LLM による合成文脈データを用いることで,提案手法は既存手法と比較して 5 ポイント以上高い精度を達成した。また合成文脈データとルールベースによる特徴量を比較することで,合成文脈データが文
図 2 合成文脈データの生成: 特定のセルに関する記述 (本文文脈情報)が LLM に与えられ,対象セルの内容を LLM に説明させることで本文から対象セルに関するコンテキストが抽出される.
脈補完・知識の追加といった形でリンキングに必要な情報を効果的に抽出・補完していることを明らかにした.
## 2 エンティティリンキング
エンティティリンキング (EL) では,論文中の表における各セルを知識ベース(PwC)内のエンティティに紐づけることを目的とする。また該当するエンティティが存在しない場合は知識外を示す “ontKB” とする必要がある. S2abEL ではこの夕スクを,以下の4つのサブタスクに分割している。
(i) セルの分類:表のセルを method, dataset, metric, dataset\&metric, other の 5 つのタイプに分類するタスク. (ii) 出典引用文献の抽出 : セルの出典となる引用文献を特定するタスク. (iii) エンティティ候補の検索: 表のセルに関連するエンティティを知識ベー スから検索し,リンキングされるエンティティの候補を抽出するタスク. (iv) エンティティ選択:エンティティの候補から正しいエンティティを選択もしくは outKB を推定するタスク。これらサブタスクのうちセルタイプ分類は,先行研究において分類精度が $90 \%$ 超えており,分類の推定を正解データに置き換えても EL の精度は 1 ポイント以下しか変化しない. そのため本研究では対象とせず,セルのタイプは正解データを用いて後続のサブタスクを行う.
## 3 手法
## 3.1 合成文脈データ生成
本研究では,合成文脈データを LLM で生成し, セルの文脈情報として利用することを提案する。これまでの LLM を使ったデータ生成アプローチは,疑似ラベルを生成したり $[6,7]$, 学習データを増加させる目的で使用されている [8]. しかし,本研究ではタスクを解くための重要な文脈を補完すること
で学習データの質を向上させることを目的とする.本研究における合成文脈データ生成のフローを図 2 に示す。
本文文脈情報LLM の人力に用いられる本文中のセルに関連する記述を本文文脈情報と定義する. 本文文脈情報はタイトル,アブストラクト,表のキャプション,本文中の表を引用する文,及び本文中のセルのテキストを含む文の 5 つで構成される.
この本文文脈情報を入力として,対象セルを中心に要約することで合成文脈を生成する,合成文脈では本文文脈の中で対象セルに関連する部分だけが抽出されることに加えて,本文文脈に不足の情報があり LLM がそれに関する知識を持つ場合にその情報が補完されることが期待される。本研究では LLM として OpenAI gpt3.5-turbo-16k を利用する.
## 3.2 リンキング手法
図 3 エンティティリンキング:論文本文,引用文献及び文脈情報を入力として特定の表のセルと紐づくエンティティを知識ベースから検索する.3つのサブタスクからなる。
本研究での EL の手法を図 3 に示す. ELを構成するそれぞれのサブタスクにおける手法を説明する。
出典引用文献の抽出 : 対象論文における対象のセルと引用文献との関連性を測定するために,セルの文脈情報と 1 つの引用文献のタイトル・アブストラクトを入力とする二値分類を行う.モデルとして GPT2 [9] に線形出力層を組み合わせて用いる. 正解ラベルはセルの出典となる引用文献には 1 ,それ以外は 0 として, Binary Cross Entropy loss を用いて GPT2 を含むパラメータ全体を学習する. モデルの出力は入力された文献とセルの関連性を表すスコアとなる。またセルの内容が新規に提案された概念である場合もあるため,対象論文も同様にモデルに入
力される. 対象論文出典としてが選択された場合はセルの内容が論文中で提案された概念であると判断される. ただし,セルに引用文献番号などが付与されており, 出典となる引用文献が明示的に示されている場合はその引用文献を選択する。
エンティティの変換 : 出典引用文献抽出のスコアを用いて出典の可能性の高い引用文献の上位 $\mathrm{k}$ 個を得て,知識べースを用いてそれぞれに紐づくエンティティに変換する. S2abELでは出典引用文献抽出の結果に加えて, Direct Retrieval(DR) というセルのテキストを知識べースから直接検索した結果も利用する. しかし出典引用文献候補だけで理想的にはエンティティ候補として $90 \%$ 以上の recall を得られることが S2abEL の実験結果から分かっているため,本研究では DR は用いない.
エンティティ選択 :エンティティ選択モデルの学習は S2abEL の手法を踏襲し,SciBERT を用いたクロスエンコーダアーキテクチャ [10] をファインチューニングする.訓練されたモデルは,セルがエンティティと紐づくスコアを出力し, 最も高いスコアのエンティティのスコアが 0.5 未満である場合, そのセルは outKB とする。
## 4 実験
## 4.1 実験設定
S2abEL データセットを用いて EL の評価を行う. 評価指標は, 先行研究と同様に overall accuracy, OutKB F1, InKB accuracy を用いる. 出典引用文献の抽出の学習に合成文脈データを用いて学習したものと S2abEL の再現実装,及び S2abEL 論文での結果を比較する。ただし S2abEL の再現実装では先行研究と異なり,DR を用いずに学習される。また $\mathrm{ED}$ の推定時のエンティティ候補数は,先行研究と同様に $\mathrm{k}=50$ とする.
## 4.2 実験結果
表 1 に EL 実験の結果を示す. 合成文脈を用いた提案手法は S2abEL の再現実装と比較しても精度が OutKB F1 スコアが 5 ポイント,InKB accuracy は 10 ポイント以上向上していることがわかる. また S2abEL の論文中の Direct Retrieval (DR) も追加した結果と比較しても,OutKB F1 スコアが 5 ポイント, InKB accuracy は 4 ポイント向上している. 提案手法は特に InKB accuracy が向上しており, 出典引用文献の抽出の精度が向上したことで正解のエンティティを候補に含めることに成功していることがわかる.
## 5 出典引用文献の抽出実験
## 5.1 タスク定義と手法
EL 実験から出典引用文献の抽出の精度向上がリンキング精度に寄与することが分かった。そこで合成文脈データの効果を直接測るため,EL のサブタスクである出典引用文献の抽出においてセルのコンテキスト情報の変化が精度に与える影響を観測する. ただし,EL 実験ではセルの出典が明示されている場合はその情報を利用したが,本実験ではその情報を利用せずすべてのセルの出典を推定する.
## 5.2 実験設定
本実験では以下の 6 の手法を比較する。
ベースライン :LLM の zero shot learning によって出典となる引用文献を抽出する。モデルは OpenAI gpt-4-1106-preview を用いる。 セルの生コンテキスト情報と全ての引用文献のタイトル・アブストラクトが与えられ,出典となる引用文献を選択する。
S2abEL:S2abEL の再現実装を行い,出典引用文献の抽出タスクのみ行う。
合成文脈:LLMによる合成文脈データを入力としてモデルが学習される。
ChatGPT による知識補完 : gpt3.5-turbo-16k に文脈情報を与えず,セルのテキストのみを入力し gpt3.5 にセルの内容を説明させることで LLM の関連知識を抽出し,それを本文文脈情報に加える。
本文文脈 : 本文文脈情報すべてをモデルの入力として与える。
結果は top1 accuracy 及び top5 accuracy で評価する.ただし GPT4 zeroshot はスコア計算を行わない
表 2 出典引用文献の抽出の実験結果
ため, top1 accuracy のみで評価する.またセルには method, dataset の 2 種類があるため,それぞれについても accuracy を計算する.
## 5.3 実験結果
出典引用文献の抽出実験の結果を表 2 に示す. 結果から合成文脈を用いた手法が top1, top5 いずれにおいても最も高い結果であることがわかる. 合成文脈は本文文脈,S2abEL と比較して all@top1 ともに all@top5 で 10 ポイント以上スコアが向上している. GPT4 zeroshot は学習を行ったいずれの手法よりも著しくスコアが低く, zeroshot では困難な課題であることがわかる.知識補完による手法は本文文脈と比較してall@top1, all@top5 ともに 3 ポイント程度精度向上しており, 外部知識の LLM による補完が有効であることがわかる.また合成文脈が知識補完よりも高い精度であったことから,LLM のコンテキスト情報を要約する能力も重要であることがわかる.
## 6 合成文脈データの効果分析
図 4 合成文脈データ分析 : 文脈補完・知識補完によってリンキング精度向上に寄与
合成文脈データとを用いることで精度が改善されたサンプルの具体例を示す. 文脈補完:セルには手法やデータセットの省略名称のみ記載されるが,本文中に正式名称を用いてその説明が記載される. 例えばある表のセルに “ET Perp”と記載される.これ
は “Perprexity of Evolved Transformer”という意味であるが,“ET Prep”という表現自体は本文中に出てこない。そのため既存手法ではセルを正しく Evolved Transformerに結び付けられなかった. 合成文脈デー タでは,LLM がセルの内容が省略名称であることを理解し,正式名称,省略名称および概念の説明をコンテキストとして全て記載したためリンキングに成功した. 知識補完 : 著名な手法やデータセットの場合,本文中に十分な説明がないことがある.例えばセルの内容が LSTM の場合,本文中に LSTM の記述は存在するがその概念の説明がない場合がある. そのため既存手法では LSTM を新規概念だと判断してしまった.合成文脈データでは,LSTM はLong Short-Term Memory を意味するモデルの一種であることが LLM によって補完されたため,正しい引用文献に紐づけることができた.
## 7 おわりに
今研究では科学技術論文の表セルに対する EL タスクに対し,合成文脈データを適用した.合成文脈データはセルの情報を中心に論文を要約することでセルに関連する文脈を抽出する手法である。この適用により既存研究と比較して精度が 5 ポイント以上改善した。また詳細な分析により,本文の内容を要約するだけでなく LLM が知識を保管することによる精度改善に寄与していることも明らかにした. 本実験では LLM として ChatGPT3.5-turbo-16k を用いたが,より大規模なモデルや特定のドメインに特化したモデルでの評価は今後の課題である.
## 謝辞
本研究は,社会人博士支援制度「mercari R4D PhD Support Program」の支援により実施しています. また本研究は, JST ムーンショット型研究開発事業 (JPMJMS2236)の支援を受けたものです.
## 参考文献
[1] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. AxCell: Automatic extraction of results from machine learning papers. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8580-8594, Online, November 2020. Association for Computational Linguistics.
[2] Sean Yang, Chris Tensmeyer, and Curtis Wigington. TELIN: Table entity LINker for extracting leaderboards from machine learning publications. In Tirthankar Ghosal, Sergi Blanco-Cuaresma, Alberto Accomazzi, Robert M. Patton, Felix Grezes, and Thomas Allen, editors, Proceedings of the first Workshop on Information Extraction from Scientific Publications, pp. 20-25, Online, November 2022. Association for Computational Linguistics.
[3] Yuze Lou, Bailey Kuehl, Erin Bransom, Sergey Feldman, Aakanksha Naik, and Doug Downey. S2abEL: A dataset for entity linking from scientific tables. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 3089-3101, Singapore, December 2023. Association for Computational Linguistics.
[4] OpenAI. Chatgpt, 2023. https://chat.openai.com.
[5] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023.
[6] Zirui Wang, Adams Wei Yu, Orhan Firat, and Yuan Cao. Towards zero-label language learning. arXiv preprint arXiv:2109.09193, 2021.
[7] Chenxi Whitehouse, Monojit Choudhury, and Alham Aji. LLM-powered data augmentation for enhanced crosslingual performance. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 671-686, Singapore, December 2023. Association for Computational Linguistics.
[8] Martin Josifoski, Marija Sakota, Maxime Peyrard, and Robert West. Exploiting asymmetry for synthetic training data generation: SynthIE and the case of information extraction. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the $\mathbf{2 0 2 3}$ Conference on Empirical Methods in Natural Language Processing, pp.
1555-1574, Singapore, December 2023. Association for Computational Linguistics.
[9] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[10] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics.
## A 合成文脈データ生成
合成文脈データ生成は ChatGPT3.5-turbo-16k を用いて行った. モデルへの入力は以下のフォー マットにセルのテキスト (CELL_CONTENT),論文タイトル (PAPER_TITLE), アブストラク卜 (PAPER_ABSTRUCT), 及び本文脈情報(PAPER_CONTEXT)を埋め込む。 prompts
system_prompt : You are a researcher in the field of machine learning. You are provided with a word that appears in a certain paper and information in the paper related to that word. Please explain the word based on the information provided.
user_prompt : Please explain the word $\left.\{C E L L_{-} C O N T E N T\right.\}$. The title of the paper in which this word appears is "\{PAPER_TITLE $\}$ ", and the abstract is "\{PAPER_ABSTRUCT $\}$ ". The category of this word is $\left.\{C E L L_{-} T Y P E\right.\}$. The relevant descriptions in the text are written below. $\{$ PAPER_CONTEXT \} Please provide your answer as concisely as possible.
## B モデルハイパーパラメータ
実験に利用した出典引用文献の抽出モデルのハイパーパラメータを記載する。
表 3 出典引用文献の抽出モデルのハイパーパラメータ
## C ChatGPT zero shot-learning
5 章の実験において,出典引用文献の抽出タスクに対して GPT4を zero-shot で用いた。具体的には以下の文章に論文の本文情報と全引用文献のタイトル・アブストラクトを埋め込んで入力する. 出力として出典となる引用文献の id と,もしそれが論文中で提案された新規概念かどうかのフラグを取得する. 論文中で提案されたフラグだと判断される場合は引用文献 id を使わず SourcePaper を出典とする. system prompt : You are tasked with identifying the source reference of the concept indicated by the cell text in a table within a machine learning academic paper. This paper is referred to as the "Source Paper" and its cited literature as "Reference Papers". The concept indicated by the cell text in the table is either a dataset or a method, which was proposed either in the cited literature. Your task is to estimate the paper in which this concept was proposed. For making your estimation, you will be provided with the cell text of the table, the type of concept that the cell text of the table is indicating, the caption of the respective table, and descriptions in the "SourcePaper" that are relevant to the respective table. You will also be presented with potential choices which include the title and abstract each of the cited literature. Please make a selection from these options. Your response should be in the following JSON format: \{ "estimate_result": "ID of a ReferencePaper", "is_source": "True or False" \} Please input that ReferencePaper's ID into the estimate_result field. Also, if you believe that the content indicated by the cell text in the table is something newly proposed in the SourcePaper, please enter True in the is_source field.
## user prompt :
- Cell Text: $\{$ CELL_CONTENT \}
- Concept Type: $\{$ CELL_TYPE\}
- Table Caption: $\{$ TABLE_CAPTION $\}$
- Paper Contents related to the Table:
\{table_context $\}$
Please make a selection from the following options.
Source Paper: "\{PAPER_TITLE $\}$ ",
" $\{$ PAPER_ABSTRUCT $\}$,
Cited Papers: ID: "\{PAPER_TITLE $\}$ ",
"\{PAPER_ABSTRUCT $\},$ | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-5.pdf | # 固有表現抽出における大規模言語モデルの LoRA ファインチューニングの学習設定の調査
鬼頭 泰清 牧野 晃平 三輪誠 佐々木裕
豊田工業大学
\{sd20037,sd21505, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp
## 概要
大規模言語モデルを低コストでファインチューニングする LoRA と呼ばれるファインチューニング手法が注目を集めている。一方で,LLM の固有表現抽出 (NER) に対する性能は低く,未だ BERTを用いた最先端モデルの性能に追いついていない. 本研究では,生命医学分野の NER に有効な LLM の LORA を用いたファインチューニングの学習設定を調査した.結果として,最先端モデルの性能を上回る結果は得られなかったが,(1) プロンプトが不要であること,(2) タグ付けによる NER が高性能であること,(3)学習可能な全ての層にLoRA を適用することで少ない学習パラメタ数でも Full Fine-tuning と同等の性能を達成することを明らかにした。
## 1 はじめに
固有表現抽出 (Named Entity Recognition; NER) は,文章中から人名や組織名などの特定の固有表現を抽出する基礎的な自然言語処理タスクで,文章の内容を捉える上で重要である。NER は古くから取り組まれ,その適用先は新聞記事などの一般的な文書のみならず,生命医学や化学などの専門分野の文書にも広がっている [1]. 近年では,ニューラルネットワークを用いた手法が主流で,事前学習済み言語モデルの一つである BERT (Bidirectional Encoder Representations from Transformers) [2] を基盤とした教師あり学習による手法が高い性能を示している.
最近では,BERTよりも大規模なパラメタを持つモデルを大規模に事前学習した大規模言語モデル (Large Language Model; LLM) が自然言語処理分野で強力な存在感を見せており, 質問応答や常識推論などのタスクで最高性能を発揮している [3]. NER においても LLM を用いた手法が研究されているが,現状では NER におけるLLM の性能は低いという問
図 1 研究の調査内容
題があり $[3,4]$, 特に生命医学分野においては一般分野と比較して大幅に低い性能が報告されている [5].性能を向上させるために LLM をファインチューニングする研究もされているが,未だ BERTを用いた最先端モデルの性能を下回っており [6,7], 高い性能を発揮するための学習設定は明らかでない.
モデルの全パラメタを更新する通常のファインチューニング (Full Fine-tuning)を大規模なパラメタを持つ LLM に対して行うのは膨大なコストがかかるため,最近では少数のパラメタのみを更新してコストを低減する LoRA (Low-Rank Adaptation) [8] と呼ばれるファインチューニング手法が注目を集めている。LoRA はコストを抑えつつ,自然言語理解や自然言語生成などのタスクで Full Fine-tuning と同等の性能を発揮することが報告されている.
本研究では生命医学分野の NER を対象とし, LoRA による LLM のファインチューニングに有効な学習設定を明らかにするため,図 1 のように,プロンプト,NER タスクの解法,LoRA の設定の観点
から,それぞれが性能に及ぼす影響を調査する。本研究の貢献は次の通りである.
・NER に対する LLM のファインチューニングにおいて,プロンプトが性能に与える影響は無視できることを確認した.
・LLM による NER タスクのタグ付けと抽出による解法を比較し,タグ付けを用いた方が高い性能を得られることを確認した。
・LoRA を適用する層の種類を多く設定することで,少ない学習パラメタ数で Full Fine-tuning と同等の性能を達成することを確認した。
## 2 関連研究
## 2.1 大規模言語モデルによる固有表現抽出
LLM は学習データ量やモデルのパラメタ数が膨大に増加したことで,プロンプトの文脈からタスクを学習する In-Context Learning (ICL) の能力を獲得し,プロンプトエンジニアリングと少数事例を用いた ICL に基づく Few-shot 学習により, 幅広いタスクにファインチューニングなしに適応することが可能となってきた [9]. NER においても LLMを利用する研究が進んでおり,LLM の ICL に基づいた NER の研究 [4] や,LLMをファインチューニングする研究 $[6,7]$ が行われている. NER は系列ラベリング問題として取り組まれることが多い [10]が,LLM はテキスト生成を行うモデルであるため,系列ラべリングとは異なるタスク設定が必要である. テキス卜生成による NER は様々な手法が提案されており, "I have a headache"という入力文に対して,"I have a @@ headache\#\#” のように固有表現にタグ付けした文を出力させる手法 [3] や,"Disease: headache"のように固有表現のみを出力させる手法 [11] などが提案されている。一方で,LLM による NER の性能,特に生命医学分野のような専門的な文章に対する性能は,BERTを始めとするエンコーダモデルを用いた最先端モデルに未だ劣っている.
## 2.2 LoRA
LoRA はモデルが持つパラメタを凍結し,新たに導入した低ランク行列のパラメタのみを更新することで,性能を保ちつつ低コストなファインチューニングを実現する手法である [8]. LoRA では, モデルの初期パラメタ $\Phi_{0}$ に対してパラメタ数
が $|\Theta| \ll\left|\Phi_{0}\right|$ となるパラメタ $\Theta$ を導入し,パラメタの差分 $\Delta \Phi(\Theta)$ を以下のように最適化する.
$
\max _{\Theta} \sum_{(x, y) \in Z} \sum_{t=1}^{|y|} \log \left(P_{\Phi_{0}+\Delta \Phi(\Theta)}\left(y_{t} \mid x, y_{<t}\right)\right)
$
具体的には,モデルのある線形層 $W_{0} \in \mathbb{R}^{d \times k}$ に対して, $r \ll \min (d, k)$ の低ランク行列 $B \in \mathbb{R}^{d \times r}$, $A \in \mathbb{R}^{r \times k}$ を用いて $W_{0}+\Delta W=W_{0}+B A$ とし, $\mathrm{B}, \mathrm{A}$ のみを最適化する.LoRA は単純な線形変換であるため,BAを $W_{0}$ にマージすることができ,推論時の遅延が発生しないという利点もある. 入力 $x$ に対して出力 $h$ は以下のように計算される.
$
h=W_{0} x+\Delta W x=W_{0} x+B A x=\left(W_{0}+B A\right) x
$
## 3 実験
本研究では,生命医学分野の NER を対象とした LLM のファインチューニングを対象に,LLM の学習設定を,プロンプトの必要性,NER タスクの解法,LoRA の設定に細分化し,段階的に評価を行い,最終的なモデルを他のモデルと比較した. まず, ファインチューニングにおけるプロンプトの必要性を調查するために,学習データに既存研究のプロンプトを用いる場合と,入力文のみを用いる場合の性能を比較した (3.2 節). 次に,テキスト生成を行う LLM に対して,NER タスクをどう解くように学習させればよいかを調査するために,LLM による NER の既存研究におけるタスクの解法を「タグ付け」と「抽出」の2 種類に分類し,性能の比較を行った (3.3 節). さらに, NER において LoRA の学習設定が性能に与える影響を調査するために,LoRAを適用する層とランクについて,複数の組み合わせを設定し,性能の比較を行った (3.4 節). 最後に,既存モデル, Full Fine-tuning との比較を行った (3.5 節).
## 3.1 設定
LLM には,Llama-2-7B [12] と,対話に特化させるインストラクションチューニングが施された Llama-2-chat-7B を使用した. 各実験における学習・評価には,生命医学ドメインの NER データセット BC5CDR を使用した. 固有表現ラベルは Disease と Chemical の 2 種類である. BC5CDR のデータの統計を付録 A の表 5 に示す. なお,3.2 節と 3.3 節では, LoRAを学習可能な全ての層に適用し,ランクを 8 に固定してファインチューニングを行った.
図 2 プロンプトの概要
表 1 プロンプトの有無に対する F1 值 (\%)
## 3.2 プロンプトの必要性
ICL による NER の Sun ら [3] が使用したプロンプトの概要を図 2 に示す. ファインチューニングを行わない場合, LLM は事前学習で得た知識と ICL に基づいてタスクを解くため,プロンプトは NER の性能に大きく影響する重要な要素となる。一方でファインチューニングを行う場合,プロンプトが性能に影響するかは不明である.
そこで,ファインチューニングを行う場合のプロンプトの必要性を調査するために,図 2 のプロンプトを用いた場合と,入力文のみを用いた場合で,Llama-2-chat-7B のファインチューニングを行った. 入力文のみの設定では Llama-2-7B のファインチューニングも行い,対話用のインストラクションチューニングの必要性を調査した. 固有表現ラベルは Chemical のみとし,損失は “Answer:” 以降を対象に計算した。ファインチューニング後の開発データに対する評価を表 1 に示す.
Llama-2-chat-7B の結果より,ファインチューニングにおいてプロンプトの有無が性能に与える影響は無視できることが確認できた.また,Llama-2-7B が Llama-2-chat-7B と同等の性能であることから,インストラクションチューニングされたモデルである必要もないことが確認できた. 以上の結果を踏まえて,以降の実験では入力文のみのプロンプトと Llama-2-7Bを用いる.
## 3.3 NER タスクの解法
LLM による NER の既存研究では,テキスト生成によって NER タスクを解く様々な方法が考案され表 2 NER の各解法に対する F1 値 (\%)
ているが,その方法は大きくタグ付けと抽出の 2 種類に分類できる.タグ付けによる NER では,入力文に対して固有表現と認識した部分にタグを付けた文を出力させ,抽出による NER では,入力文に対して固有表現と認識した単語のみを出力させる。さらに,両者において各固有表現ラベル毎に独立してモデルを学習・推論させる方法と,全固有表現ラべルを一度に学習・推論する方法に分けられる。
ファインチューニングにおいて NER タスクの解法が性能に及ぼす影響を調査するために,NER タスクの 2 種類の解法と,学習・推論ラベルの 2 種類の組み合わせでそれぞれファインチューニングを行い,開発データに対する抽出性能を評価した. 各設定の出力フォーマットは付録 B の表 6 の例のようにした。なお,各設定の性能を同一条件で比較するため,各固有表現ラベルごとに独立して学習・推論を行う設定については,1つのトークンに 1 つのラベルのみが割り当てられるように,Disease > Chemical の優先度でラベル付けする後処理をした。
表 2 の結果より,NER の解法については,抽出よりもタグ付けの方が高い性能が得られた. 学習・推論については,各固有表現ラベル毎に行う場合と全固有表現ラベルを同時に行う場合で性能差は見られなかった.以上の結果を踏まえて,以降の実験では NER 解法をタグ付けとし,学習と推論のコストが低い全固有表現ラベルを同時に学習する設定でファインチューニングする.
## 3.4 LoRA の設定
LoRA を適用する層とランク $r$ の大きさが性能に与える影響を調査するため,それぞれを変化させた場合の比較実験を行った.LoRA はモデルの任意の層に適用でき,その層のみを学習対象にできる。また,ランク $r$ の大きさによって,学習可能なパラメ夕数を変更できる. Llama-2 における学習可能な層には,注意機構 (query/key/value/output projection)と全結合層 (up/down/gate projection, embedding, $1 \mathrm{~m}$ head) があり,それぞれ $W_{q}, W_{k}, W_{v}, W_{o}, W_{u}, W_{d}, W_{g}, W_{e}$,
表 3 LoRAを適用する層とランク $r$ の組み合わせに対する $\mathrm{F} 1$ 值 $(\%)$
表 4 LoRA, Full Fine-tuning, SOTA モデルの性能 (\%)
$W_{h}$ とする. 各設定における学習パラメタ数を付録 C の表 7 に示す.
表 3 のファインチューニング後の開発データに対する結果より,LoRAを適用する層が 2 種類以下のとき,性能は大幅に低く,ランクの変動によって性能も大きく変化した. 層の種類の増加により, 性能は向上し,学習可能な全ての層に適用したときに, ランクの影響を受けずに高い性能が得られた。学習パラメタ数で比較すると, 例えば $W_{q}$ のみの $r=128$ と $W_{q}, W_{k}, W_{v}, W_{o}$ の $r=2$ では, 後者の方が学習パラメタ数が少ないにも関わらず性能が高く,学習パラメタ数が多いほど性能が高くなるとは限らないことが確認できた. 以上より, 同じパラメタ数を学習させる場合にはランクよりも LoRAを適用する層を多く設定する方が効果的であると考えられる。
## 3.5 NER の性能評価
3.4 節の結果より,学習可能な全ての層に LoRA を $r=128$ で適用し,テストデータで評価した。また,比較のために Full Fine-tuningを行い,同様に評価した. 各手法の学習コストを付録 D の表 8 に示す.それぞれの評価値と BC5CDR において SOTA を達成した Zhang ら [13] の性能を比較する.
表 4 の結果より,LoRAを適用することで,少ない学習パラメタ数で Full Fine-tuning と同等の性能を達成した. しかし, SOTA モデルの性能を上回ることはできず,更なる性能向上を目指す必要がある。
## 4 考察
NER に対する LLM のファインチューニングにおいて,プロンプトの有無は性能に影響を与えなかっ
た. これは,大量のタスクデータを学習したことで,推論の手助けとなるタスクの説明や Few-shot の例示の必要性がなくなったからだと考えられる.プロンプトを除いた最低限のデータで学習できるため,コストの削減につながる。
NER の解法については,抽出よりもタグ付けの方が性能が高くなった. 入力文が与えられたときに,単に固有表現のみを出力させるよりも,再度同じ文を出力しつつ途中でタグを付ける方が文脈を捉えることができると考えられる。
LoRA については,ランクよりも適用する層の種類の方が NER における性能への影響が大きいという結果が得られた. LoRAを適用する層が幅広いほど,各層が担う NER に必要な潜在能力を幅広く刺激できたと考えられる。
## 5 おわりに
本研究では生命医学分野の NER を対象として, LLM の LoRA を用いたファインチューニングにおいて,有効な学習設定を明らかにするために,プロンプトの必要性,NER タスクの解法,LoRA の設定について,それぞれが性能に及ぼす影響を調査した. ファインチューニングを行う場合,プロンプトを設計する必要はなく,タグ付けによる NER の解法を用いることで高い性能が得られることがわかった.LoRAについては,ランクよりも適用する層の種類の方が重要で,学習可能な全ての層に LoRA を適用したときに極めて少ないパラメタ数で Full Fine-tuning と同等の性能を達成することが確認できた.
今後の課題として,LoRA を適用する層の組み合わせについて詳細に調査し,より低コストで高性能を発揮するための学習設定を明らかにすることが挙げられる。また,LoRA 以外にも低コストでファインチューニングをする手法が複数存在するため,それらの手法との比較も必要である.
## 謝辞
本研究は JSPS 科研費 JP20K11962 の助成を受けたものです.
## 参考文献
[1] Jiao Li, Yueping Sun, Robin J. Johnson, Daniela Sciaky, Chih-Hsuan Wei, Robert Leaman, Allan Peter Davis, Carolyn J. Mattingly, Thomas C. Wiegers, and Zhiyong Lu. BioCreative V CDR task corpus: a resource for chemical disease relation extraction. Database, Vol. 2016, p. baw068, 052016.
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[3] Xiaofei Sun, Linfeng Dong, Xiaoya Li, Zhen Wan, Shuhe Wang, Tianwei Zhang, Jiwei Li, Fei Cheng, Lingjuan Lyu, Fei Wu, et al. Pushing the limits of chatgpt on nlp tasks. arXiv preprint arXiv:2306.09719, 2023.
[4] Shuhe Wang, Xiaofei Sun, Xiaoya Li, Rongbin Ouyang, Fei Wu, Tianwei Zhang, Jiwei Li, and Guoyin Wang. Gptner: Named entity recognition via large language models. arXiv preprint arXiv:2304.10428, 2023.
[5] Mingchen Li and Rui Zhang. How far is language model from $100 \%$ few-shot named entity recognition in medical domain. arXiv preprint arXiv:2307.00186, 2023.
[6] Zongxi Li, Xianming Li, Yuzhang Liu, Haoran Xie, Jing Li, Fu-lee Wang, Qing Li, and Xiaoqin Zhong. Label supervised llama finetuning. arXiv preprint arXiv:2310.01208, 2023 .
[7] Oscar Sainz, Iker García-Ferrero, Rodrigo Agerri, Oier Lopez de Lacalle, German Rigau, and Eneko Agirre. Gollie: Annotation guidelines improve zero-shot information-extraction. arXiv preprint arXiv:2310.03668, 2023.
[8] Edward J Hu, yelong shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. LoRA: Low-rank adaptation of large language models. In International Conference on Learning Representations, 2022
[9] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle,
M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020
[10] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics.
[11] Xiao Wang, Weikang Zhou, Can Zu, Han Xia, Tianze Chen, Yuansen Zhang, Rui Zheng, Junjie Ye, Qi Zhang, Tao Gui, et al. Instructuie: Multi-task instruction tuning for unified information extraction. arXiv preprint arXiv:2304.08085, 2023.
[12] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023.
[13] Sheng Zhang, Hao Cheng, Jianfeng Gao, and Hoifung Poon. Optimizing bi-encoder for named entity recognition via contrastive learning. In The Eleventh International Conference on Learning Representations, 2023.
## A データセットの統計
本研究で使用したデータセット BC5CDR の, 固有表現ラベルごとの事例数を表 5 に示す.
表 5 BC5CDR の固有表現ラベルごとの事例数
## B 使用したプロンプト
3.3 節で設定した, タグ付けによる NER と抽出による NER の出力フォーマットの例を表 6 に示す.
表 6 入力文 “Mesna significantly reduces IFO 's genotoxicity” に対する出力フォーマット
## C LoRA のパラメタ数
3.4 節における,LoRA を適用する層とランクの組み合わせに対する学習パラメタ数を表 7 に示す.
表 7 LoRAを適用する層とランク $r$ の組み合わせに対する学習パラメタ数
## D 学習コスト
3.5 節における, LoRA と Full Fine-tuning の学習コストを表 8 に示す.
表 8 LoRA と Full Fine-tuning の学習コスト
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A3-6.pdf | # LLM はユーザーに適したテキストの難易度を 暗黙的に考慮しているのか?
郷原聖士 上垣外英剛 渡辺太郎
奈良先端科学技術大学院大学
\{gobara.seiji.gt6,kamigaito.h, taro\}@is.naist.jp
## 概要
学生の理解度向上には、個人の学習レベルに適した教育が必要である。また、言語学習などの指導では、教員は各学生の理解度の把握が重要である。ただし、教員が全学生に個別指導を行うのは時間的な制約から困難である。解決策として、大規模言語モデル(LLM)で学生の質問応答をサポートする方法が考えられる。LLMは、幅広い分野への回答が可能なため、LLMを活用した細かな指導の自動化が期待される。しかし、LLM が指導者の代わりに質問応答できるとして、細かな指導の限界は未知である。そこで本研究では、教育分野での LLM の活用を促進するために文章の難易度に焦点を当てて、LLMが持つユーザへの暗黙的な難易度調整能力を調査する。
## 1 はじめに
学生の理解度を高めるためには、個人に合った指導方法が必要である。
LLM LLM は、BERT [1]をはじめとする旧来の小規模モデルと比較して、より大量のデータを使って莫大なパラメータ数で学習を行ったモデルである。 LLM の著しい発展により、文章の要約や機械翻訳、質問応答などの様々なタスクが高精度で解けることが知られている $[2,3,4,5,6,7,8]$ 。LLM の成功を受けて、教育応用に向けた研究が注目されている。
教育応用 LLM を使った教育応用として、子供から大人までの幅広い人々に対する、ステップバイステップでの方式や、クイズ・フラッシュカードのようなインタラクティブな形式での教育方法などがある [9]。LLM を利用した教育方法で子供の好奇心を刺激することで、子供の学習意欲を高める働きがあると報告されている [10]。また、LLMを活用した教育応用として、テキスト平易化がある。
図 1 概要図
テキスト平易化テキスト平易化は、文や文章の意味や内容を保持した上で、文法や構造を平易なものに変換する自然言語処理の生成タスクの一つである [11]。テキスト平易化を行うことで、読者の理解しやすい言葉や表現に変換され、情報を効率的に伝えることが可能となる。LLMを用いた手法としては、 GPT-3.5 [2] を使って zero-shot と few-shots で平易化する方法 [12] や、難易度を付与して文章の難易度を調節する方法 [13] がある。生成する文章の難易度を調節することで、ユーザそれぞれに対して分かりやすい文章を提供することが可能になる。また、 ユーザに合ったシステムをそれぞれ提供する仕組みとして、個人化がある。
個人化 Xie ら [14] は、2007 年から 2017 年の個人化に関する研究の傾向を分析し、秀逸な学習システムの実装や学習者の選好の統合、個々の学習データの分析に関する研究が行われていることを示唆している $[15,16]$ 。LLM では、人間の選好を学習に用いることで文章の個人化を実現し、モデルの精度を向上させている [2]。文章の個人化として、例えば言語学習では、教師が生徒の理解度を一定数考慮した上でレベルを調整しながら、文法や語学に関する説明を行っている。しかし、生徒の理解度にはバラつきがあり、教師が各生徒の理解度を把握してそれぞれに合わせた説明を行うのは時間の制約から困難で
ある。そこでLLMを使って問題作成や講義の説明を実施することで、学習者の理解度に合わせた個人化が期待される [17]。すなわち、LLM による学習の個人化のためには、学習者の理解度を考慮する必要がある。
しかし現時点では、LLMがどれだけ学習者の理解度を考慮した上で文章を生成しているのかは分かっていない。本研究では、教育分野における LLM の活用を促進するために文章の難易度に焦点を当てて、LLM が持つユーザの入力に対する暗黙的な難易度調整能力を調査する。
## 2 実験手法
## 2.1 実験設定
本実験では、再現性確保のために乱数を固定して Greedy Search で文章生成を行った。また、文章の入力トークン数と生成トークン数の合計は 3072 トークンに設定した(付録 A)。
## 2.2 データセット
本実験では、質問応答を収集した stack-overflow データセットと、授業中の対話履歴を収集した Teacher-Student Chatroom Corpus (TSCC) [18] の 2 種類に対して評価実験を行った。
## 2.2.1 stack-overflow
stack-overflow データセット11は、主にプログラマーのソースコードや実行環境などに関連した質問回答を収集した 1,000 件のデータセットである。本データセットは、2023 年 7 月 1 日時点での質問データセットをスクレイピングし、質問応答に対応しているデータを抽出することで構築した。
## 2.2.2 TSCC
TSCC は、Caines ら [18] が公開している 260 件のデータセットであり、教師と学生の授業内でのチャットログを収集したものである。本研究では、先頭からの対話履歴を抽出してラベル teacher と studentを冒頭に付与し、11ターン以降の発話で、最初に教師が返答する直前までの対話を入力とした。
## 2.3 モデル
本研究では、LLM が持つユーザへの難易度調整能力を調査するために、複数の LLM $[2,3,4,5,6,7,8]$ を比較対象に選出した。
ChatGPT [2,3] は人間とのアライメント(RLHF : Reinforcement Learning from Human Feedback)を考慮した LLMであり、現在利用可能な言語モデルとしては極めて性能が高いことが知られている。
LLaMA-2 [4] は、 7 億から 70 億のパラメータを持つ事前学習および微調整済みの LLMである。本モデルは、多くのベンチマークで高い性能を示している点にくわえて、人手評価によって有用性と安全性の点が評価されており、クローズドソースのモデルを代替する可能性を秘めている。
Vicuna [5]は、LLaMA [19]をべースとしてChatGPT とのやり取りを収集したデータセット2)を用いて、人間の選好に合うように学習された LLM である。本研究では、LLaMA-2をべースとして学習を行ったバージョンのモデルを比較対象として選定した。
Orca [6] は、LLaMA-2 をべースとして、 100 件のタスクに対して段階を踏み、詳細に答える、といった複数の戦略に基づいたプロンプトでファインチューニングしたモデルである。本モデルは、複数の合成データを用いて学習していることから、入力文への臨機応変な出力対応と共に、暗黙的な難易度調整能力を獲得していることが期待される。
Mistral [7] は、70 億のパラメータを持つ事前学習済みモデルである。本モデルよりもパラメータサイズの大きな LLaMA-2 の 13b モデルと比較して、 Mistral はベンチマークで高い性能を記録している。
Starling [8] は、Mistralをファインチューニングした Openchat3.5 [20]をべースとして、GPT-4 [3] のフィートバックで学習した報酬モデルを用いて訓練したモデルである。Mistrial をべースとして学習したモデルについても同様に、ファインチューニングで難易度調整能力を獲得するのかを調査するために選定した。
## 2.4 プロンプト
本実験では、プロンプトによる効能を考慮するため、stack-overflow データセットでは simple、normal、 complex の 3 種類、TSCC では 1 種類のプロンプトに対する各言語モデルの生成例を収集し、比較実験
2) https://sharegpt.com/
を行った。ただし、プロンプトで Rooein ら [13] のように難易度を付与する場合、個人化の方向性が固定化され、実際にはユーザに不適な個人化を行う懸念がある。したがって、LLM が持つ暗黙的な難易度調整能力を評価するために、プロンプトと入力にはユーザーの文章理解度を含めず、表 3、表 4 のように設定した。
## 2.5 評価指標
本研究では、LLM の難易度調整能力を調査するため、文章の難易度、同義性、㔯長性という 3 つの軸を評価指標として設定した。評価時には、入力文と生成文の各評価指標に対するスピアマンの順位相関係数を計算した。また、生成文の内、空白などの不適な文の生成数(Skip)についても記録した。
難易度言語教育などの現場では、教師が生徒の語彙力や文章理解能力に合わせて言い換える必要があるため、本研究ではこの能力を文章の難易度として評価指標に設定した。評価指標には、伝統的な文章の難易度推定指標である FKGL [21]、FRE [22]、 SMOG [23] にくわえて、NERF [24]を選出した。 NERF は、語彙の難易度、文章の構造の複雑さ、ユニークな語彙の種類からなる4つの要素に対して、人手で作成した特徴量で文章の難易度を定式化したものである。FKGL PMOG などの伝統的な難易度推定指標と比較して、高い精度で文章の難易度を推定可能であると報告されている。
同義性生成した内容について、LLM が正しい内容を返していることを調査する必要がある。そこで我々は、収集したデータセットに含まれていた文章をリファレンスとして、LLMによって生成された文章に対する BERTScore [25] を計算することにより、LLM がユーザーの意図した内容に沿って回答していることを確認した。
冗長性質問応答や教育の現場などにおいて、教師は生徒に対しで長ではない適切な長さでの説明をすることが望ましい。したがって本研究でも LLM が過不足ない適度な長さで応答文を生成することが出来ているのかを調査するため、LLM の生成文と入力文の長さを比較した。
## 3 実験結果と考察
表 1 に、 stack-overflow データセットで normal プロンプトを入力して回答を生成した時の、入力文と出力文の難易度に対する相関係数を示す。表
1 において、多くのモデルでは BERTScore が高くなっているが、LLaMA-2 に関しては内容の繰り返しや文章が生成されなかったデータを含んでいたことで (Skip)、全体的に数值が低くなっている。 Orca-2-7b と Orca-2-13b を比較すると、全ての項目で Orca-2-13b の性能が高くなっていることから、モデルのスケーリング則が確認できる。
また、全体として、Vicuna-13b、GPT-3.5、GPT-4 の性能が高く、そのスコアは人手で作成された回答 (original)よりも高い数值になっている。すなわち、 LLM は人間と比較して、質問者の作成した文章の難易度を考慮して回答を生成することができると考えられる。Vicuna-13b、GPT-3.5、GPT-4 は、どれも学習に対話データのログを用いており、対話ログには、質問内容の訂正や人間の選好性が反映されていることから、暗黙的な難易度調整能力の獲得には、人間の選好性が重要であると考えられる。
くわえて、Mistral-7bは、Vicuna-13b、GPT-3.5、 GPT4 に次ぐ性能であったが、モデルの学習に用いられている、Web 上からクロールしたデータセットに関する詳細が明らかではないため、データのリー クが発生している懸念がある。ここで、GPT-3.5 と GPT-4 を比較すると、一般的に GPT-4 の性能が高くなることが知られているが、本タスクでは GPT-3.5 の方が高いスコアになる評価指標が多かった。このことから、GPT-4 による学習は、GPT-3.5 と比較して、難易度調整能力を向上させていないと考えられる。一方で、GPT-4-0613と GPT-4-1106を比較すると、全ての項目で GPT-4-0613 のスコアが高くなっていたため、バージョンアップに際して行った追加学習が、生成する文章の暗黙的な難易度調整能力を減退させたと考えられる。ただし、本実験で用いたデータについて、特に stack-overflow データセットは、オンライン上でのプログラムコードをメインに扱った匿名のやり取りを収集しているため、コード自体の文章の難しさと、質問者の質問内容から生じる文章の難しさが混在しており、上手く評価面で切り分けられていない可能性がある。よって、コードに特化した LLM による生成文の評価と、コードを含まないデータセットに対する生成文の評価を追加で実施する必要があると考えられる。
また、 simple プロンプトと normal プロンプトを用いた場合についても上記と同様の傾向が見られたが、いずれもユーザーに対して過度に親切にしたり難しくしたりしない、normal プロンプトを用いた
表 1 stack-overflow データセットでの生成文の特徴量に対する相関係数(normal プロンプト)
表 2 TSCCでの生成文の特徵量に対する相関係数
場合の相関係数の方が高くなっていた。このことから、LLM は暗黙的な難易度調整能力を十分に高く獲得していることが示唆された。
一方で、TSCCでの入力文と出力文の難易度に対する相関係数は、BERTScore を除いて低くなっていることが見て取れる(表 2)。TSCC で比較対象とした生成文のトークン数は、 stack-overflowデータセットと比較して高々数十トークンと少なく、対話特有のスラングを含んでいた。したがって、LLM は入力文に対して自然な対話を生成していた一方で、評価対象とした生成文が短く、極端に省略された対話特有のスラングを含む文が多かったため、対話での LLM の難易度調整能力を正しく評価できていない可能性が高い。そこで LLM で複数ターンの対話を生成し、入力データの過去の student の発話履歴を複数ターン分収集して比較することで、LLM の持つ対話での難易度調整能力をより正確に評価できるようになると考えられる。
## 4 おわりに
本研究では、LLMの持つユーザへの暗黙的な難易度調整能力を検証するために、質問応答と対話を用いて LLM が生成した文章と入力文章の難易度を比較した。実験の結果、Vicuna-13b、GPT-3.5、 GPT-4 による生成文と入力文の難易度に強い相関関係が見られた。また、一部の LLMでは人間の作成した回答データと比較して、相関係数が高かった。 このことから、LLM は人間よりも暗黙的に難易度を調節した回答文を生成できることが示唆された。
今後は、LLM の難易度調整能力の獲得過程を分析するために、人間と LLM の対話履歴を用いて、 どの選好が難易度調整能力に有効であるのか調査したいと考えている。例えば、Starling のベースモデルとなった OpenChat 3.5 [20] と、ベースである Mistral の同タスクでの性能比較のように、学習に用いられたデータや学習手法で、暗黙的な難易度調整能力の獲得に差はあるのか、検証を進めていきたい。
## 参考文献
[1] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of naacL-HLT, Vol. 1, p. 2, 2019.
[2] Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, et al. Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, Vol. 35, pp. 27730-27744, 2022.
[3] OpenAI, :, Josh Achiam, Steven Adler, Sandhini Agarwal, Lama Ahmad, Ilge Akkaya, Florencia Leoni Aleman, Diogo Almeida, Janko Altenschmidt, Sam Altman, Shyamal Anadkat, Red Avila, Igor Babuschkin, Suchir Balaji, Valerie Balcom, Paul Baltescu, Haiming Bao, Mo Bavarian, Jeff Belgum, Irwan Bello, Jake Berdine, Gabriel Bernadett-Shapiro, Christopher Berner, Lenny Bogdonoff, Oleg Boiko, Madelaine Boyd, Anna-Luisa Brakman, Greg Brockman, Tim Brooks, Miles Brundage, Kevin Button, Trevor Cai, Rosie Campbell, Andrew Cann, Brittany Carey, Chelsea Carlson, Rory Carmichael, Brooke Chan, Che Chang, Fotis Chantzis, Derek Chen, Sully Chen, Ruby Chen, Jason Chen, Mark Chen, Ben Chess, Chester Cho, Casey Chu, Hyung Won Chung, Dave Cummings, Jeremiah Currier, Yunxing Dai, Cory Decareaux, Thomas Degry, Noah Deutsch, Damien Deville, Arka Dhar, David Dohan, Steve Dowling, Sheila Dunning, Adrien Ecoffet, Atty Eleti, Tyna Eloundou, David Farhi, Liam Fedus, Niko Felix, Simón Posada Fishman, Juston Forte, Isabella Fulford, Leo Gao, Elie Georges, Christian Gibson, Vik Goel, Tarun Gogineni, Gabriel Goh, Rapha Gontijo-Lopes, Jonathan Gordon, Morgan Grafstein, Scott Gray, Ryan Greene, Joshua Gross, Shixiang Shane Gu, Yufei Guo, Chris Hallacy, Jesse Han, Jeff Harris, Yuchen He, Mike Heaton, Johannes Heidecke, Chris Hesse, Alan Hickey, Wade Hickey, Peter Hoeschele, Brandon Houghton, Kenny Hsu, Shengli Hu, Xin Hu, Joost Huizinga, Shantanu Jain, Shawn Jain, Joanne Jang, Angela Jiang, Roger Jiang, Haozhun Jin, Denny Jin, Shino Jomoto, Billie Jonn, Heewoo Jun, Tomer Kaftan, Lukasz Kaiser, Ali Kamali, Ingmar Kanitscheider, Nitish Shirish Keskar, Tabarak Khan, Logan Kilpatrick, Jong Wook Kim, Christina Kim, Yongjik Kim, Hendrik Kirchner, Jamie Kiros, Matt Knight, Daniel Kokotajlo, Lukasz Kondraciuk, Andrew Kondrich, Aris Konstantinidis, Kyle Kosic, Gretchen Krueger, Vishal Kuo, Michael Lampe, Ikai Lan, Teddy Lee, Jan Leike, Jade Leung, Daniel Levy, Chak Ming Li, Rachel Lim, Molly Lin, Stephanie Lin, Mateusz Litwin, Theresa Lopez, Ryan Lowe, Patricia Lue, Anna Makanju, Kim Malfacini, Sam Manning, Todor Markov, Yaniv Markovski, Bianca Martin, Katie Mayer, Andrew Mayne, Bob McGrew, Scott Mayer McKinney, Christine McLeavey, Paul McMillan, Jake McNeil, David Medina, Aalok Mehta, Jacob Menick, Luke Metz, Andrey Mishchenko, Pamela Mishkin, Vinnie Monaco, Evan Morikawa, Daniel Mossing, Tong Mu, Mira Murati, Oleg Murk, David Mély, Ashvin Nair, Reiichiro Nakano, Rajeev Nayak, Arvind Neelakantan, Richard Ngo, Hyeonwoo Noh, Long Ouyang, Cullen O'Keefe, Jakub Pachocki, Alex Paino, Joe Palermo, Ashley Pantuliano, Giambattista Parascandolo, Joel Parish, Emy Parparita, Alex Passos, Mikhail Pavlov, Andrew Peng, Adam Perelman, Filipe de Avila Belbute Peres, Michael Petrov, Henrique Ponde de Oliveira Pinto, Michael, Pokorny, Michelle Pokrass, Vitchyr Pong, Tolly Powell, Alethea Power, Boris Power, Elizabeth Proehl, Raul Puri, Alec Radford, Jack Rae, Aditya Ramesh, Cameron Raymond, Francis Real, Kendra Rimbach, Carl Ross, Bob Rotsted, Henri Roussez, Nick Ryder, Mario Saltarelli, Ted Sanders, Shibani Santurkar, Girish Sastry, Heather Schmidt, David Schnurr, John Schulman, Daniel Selsam, Kyla Sheppard, Toki Sherbakov, Jessica Shieh, Sarah Shoker, Pranav Shyam, Szymon Sidor, Eric Sigler, Maddie Simens, Jordan Sitkin, Katarina Slama, Ian Sohl, Benjamin Sokolowsky, Yang Song, Natalie Staudacher, Felipe Petroski Such, Natalie Summers, Ilya Sutskever, Jie Tang, Nikolas Tezak, Madeleine Thompson, Phil Tillet, Amin Tootoonchian, Elizabeth Tseng, Preston Tuggle, Nick Turley, Jerry Tworek, Juan Felipe Cerón Uribe, Andrea Vallone, Arun Vijayvergiya, Chelsea Voss, Carroll Wainwright, Justin Jay Wang, Alvin Wang, Ben Wang, Jonathan Ward, Jason Wei, CJ Weinmann, Akila Welihinda, Peter Welinder, Jiayi Weng, Lilian Weng, Matt Wiethoff, Dave Willner, Clemens Winter, Samuel Wolrich, Hannah Wong, Lauren Workman, Sherwin Wu, Jeff Wu, Michael Wu, Kai Xiao, Tao Xu, Sarah Yoo, Kevin Yu, Qiming Yuan, Wojciech Zaremba, Rowan Zellers, Chong Zhang, Marvin Zhang, Shengjia Zhao, Tianhao Zheng, Juntang Zhuang, William Zhuk, and Barret Zoph. Gpt-4 technical report. arXiv preprint arXiv:2303.08774, 2023.
[4] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023.
[5] Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric Xing, et al. Judging llm-as-a-judge with mt-bench and chatbot arena. arXiv preprint arXiv:2306.05685, 2023.
[6] Arindam Mitra, Luciano Del Corro, Shweti Mahajan, Andres Codas, Clarisse Simoes, Sahaj Agarwal, Xuxi Chen, Anastasia Razdaibiedina, Erik Jones, Kriti Aggarwal, et al. Orca 2: Teaching small language models how to reason. arXiv preprint arXiv:2311.11045, 2023
[7] Albert Q Jiang, Alexandre Sablayrolles, Arthur Mensch, Chris Bamford, Devendra Singh Chaplot, Diego de las Casas, Florian Bressand, Gianna Lengyel, Guillaume Lample, Lucile Saulnier, et al. Mistral 7b. arXiv preprint arXiv:2310.06825, 2023.
[8] Banghua Zhu, Evan Frick, Tianhao Wu, Hanlin Zhu, and Jiantao Jiao. Starling-7b: Improving $1 \mathrm{~m}$ helpfulness harmlessness with rlaif, November 2023.
[9] Ebrahim Gabajiwala, Priyav Mehta, Ritik Singh, and Reeta Koshy. Quiz maker: Automatic quiz generation from text using nlp. In Futuristic Trends in Networks and Computing Technologies: Select Proceedings of Fourth International Conference on FTNCT 2021, pp. 523-533. Springer, 2022.
[10] Ramon Dijkstra, Zülküf Genç, Subhradeep Kayal, Jaap Kamps, et al. Reading comprehension quiz generation using generative pre-trained transformers, 2022
[11] Suha S Al-Thanyyan and Aqil M Azmi. Automated text simplification: a survey. ACM Computing Surveys (CSUR), Vol. 54, No. 2, pp. 1-36, 2021.
[12] Yutao Feng, Jipeng Qiang, Yun Li, Yunhao Yuan, and Yi Zhu. Sentence simplification via large language models. arXiv preprint arXiv:2302.11957, 2023
[13] Donya Rooein, Amanda Cercas Curry, and Dirk Hovy. Know your audience: Do llms adapt to different age and education levels? arXiv preprint arXiv:2312.02065, 2023
[14] Haoran Xie, Hui-Chun Chu, Gwo-Jen Hwang, and Chun-Chieh Wang. Trends and development in technology-enhanced adaptive/personalized learning: A systematic review of journal publications from 2007 to 2017. Computers \& Education, Vol. 140 p. 103599,2019
[15] Chih-Ming Chen and Ching-Ju Chung. Personalized mobile english vocabulary learning system based on item response theory and learning memory cycle. Computers \& Education, Vol. 51, No. 2, pp. 624-645, 2008.
[16] Gwo-Jen Hwang, Fan-Ray Kuo, Peng-Yeng Yin, and Kuo-Hsien Chuang. A heuristic algorithm for planning personalized learning paths for context-aware ubiquitous learning. Computers \& Education, Vol. 54, No. 2, pp. 404-415, 2010.
[17] Risang Baskara, et al. Exploring the implications of chatgpt for language learning in higher education. Indonesian Journal of English Language Teaching and Applied Linguistics, Vol. 7, No. 2, pp. 343-358, 2023.
[18] Andrew Caines, Helen Yannakoudakis, Helena Edmondson, Helen Allen, Pascual Pérez-Paredes, Bill Byrne, and Paula Buttery. The teacher-student chatroom corpus. In David Alfter, Elena Volodina, Ildikó Pilan, Herbert Lange, and Lars Borin, editors, Proceedings of the 9th Workshop on NLP for Computer Assisted Language Learning, pp. 10-20, Gothenburg, Sweden, November 2020. LiU Electronic Press.
[19] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, et al. Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971, 2023.
[20] Guan Wang, Sijie Cheng, Xianyuan Zhan, Xiangang Li, Sen Song, and Yang Liu. Openchat: Advancing open-source language models with mixed-quality data. arXiv preprint arXiv:2309.11235, 2023
[21] George R Klare. Assessing readability. Reading research quarterly, pp. 62-102, 1974.
[22] J Peter Kincaid, Robert P Fishburne Jr, Richard L Rogers, and Brad S Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. 1975.
[23] G Harry Mc Laughlin. Smog grading-a new readability formula. Journal of reading, Vol. 12, No. 8, pp. 639-646, 1969
[24] Bruce W Lee and Jason Hyung-Jong Lee. Traditional readability formulas compared for english. arXiv preprint arXiv:2301.02975, 2023
[25] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020 .
表 4 teacher-student $の$ 対話例(Starling-7b)
Please generate a response from the teacher to the student in the ongoing dialogue.
\#\#\# Dialogue:student: Hi! teacher: Hi <STUDENT $>$ !
teacher: Everything alright with the chatroom for you?
student: I tried to use it a few seconds ago and I couldn't change my name, but now it is working, thanks.
student: How are you?
入力
teacher: Oh good!
teacher: Fine, thank you! It's summer here at last, we've had a week of non-stop sunshine!
teacher: How are you?
student: I'm fine thank you! It looks like summer has arrived here too!
student: Even though we still had a couple of storms...
student: with hail and everything
teacher:
出力 Ooh, I hope you're not too badly affected by them!
図 2 入力トークン数のヒストグラム
## A 長文の入カへの対応
図 2 に、stackover-flow データセットの入力データに対して、Llama-2-7b [19] のトークナイザーでトー クン数を計算したヒストグラムを示す。図 2 において、全入力データの $97.0 \%$ が 2048 トークン以下、 $98.1 \%$ が 3072 トークン以下、 $1.9 \%$ が 3072 トークン以上となっている。モデルが入力文に対して生成す
る出力で難易度調整能力を獲得しているのかを評価するためには、全ての入力文は必要でなく、2048 トークンで十分に多くの入力文の内容を捉えることが可能であると考えられる。したがって、入力文と出力文の文章の長さを統一して生成するために、 モデルへの入力を 2048 トークンまでで切り捨てて、最大のトークン生成数を入力トークンと合わせて 3072 トークンになるように調節した。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A4-1.pdf | # 日本語論理推論ベンチマーク JFLD の提案
森下皓文 ${ }^{1}$ 山口篤季 ${ }^{2}$ 森尾学 ${ }^{1}$ 角掛正弥 ${ }^{1}$ 友成光 ${ }^{1}$ 今一修 1 十河泰弘 ${ }^{1}$
1 日立製作所研究開発グループ 2 シェフィールド大学
terufumi.morishita.wp@hitachi.com
## 概要
大規模言語モデル (LLM) はその広汎な課題解決能力が魅力を集め,日本語を含めた様々な言語で開発されてきている.しかしながら LLM は依然として論理推論を苦手としており,今後の研究が求められる.この研究を促進するため,本研究は日本語における論理推論ベンチマーク JFLD (Japanese Formal Logic Deduction) を提案する. JFLDを用いた評価の結果,日本語 LLM の論理推論能力は未だ未熟なことが分かった.なお,ベンチマーク・ベンチマーク構築用コード・LLM 評価用コードを公開する1).
## 1 はじめに
近年登場した大規模言語モデル (LLM) は,広範な課題を巧みに解決し, 人工知能=“人間のように考える機械” [1] の実現を予感させる. 人工知能の実現に向けて古くから,知識と推論という 2 つ要素が重要視されてきた $[2,3,4,5,6,7]$. 自然言語処理の文脈で知識とは,世界に関する事実であり,例えば 「質量を持つものは重力場を発生させる」「地球は質量を持つ」等である。一方で推論とは,複数の知識を一定の規則に従って組み合わせることで,新たな知識を得る思考形態である. 例えば上述の知識に対して推論規則 $\Gamma “ \forall x, F(x) \rightarrow G(x)$ ” と “ $F(a)$ ” の 2 つから,“ $G(a)$ ” が導ける」を適用することにより $(F=$ “質量を持つ”, $G=$ “重力場を発生させる”, $a=$ “地球”),「地球は重力場を発生させる」という新たな知識を得る.
最近の観察によると,LLM は推論ではなく“暗記した知識” によって課題を解いていることが示唆される $[8,9,10]$. 例えば「過去年度のコーディング試験は解けるが,最新年度は解けない」「算数の有名問題をそのまま出題すれば解けるが,数字を変えると解けない」等,一見推論しているように見えても,実は事前学習コーパス中の類似事例を取り出して解いていたことが分かる. この知識偏重は GPT-4 [11] のような最先端の LLM でまで確認されている
[12, 13, 14, 15].
もし LLM が推論を苦手とするのであれば,汎用性の高い人工知能の実現にとって問題となる。なぜならば,知識によって課題を解いている限り,“一度見たことがある” 課題を超えた真に未知なる課題を解くことができないからだ.よって今後,LLM の推論能力向上に関する研究が不可欠である.
研究の促進のためには,良質なべンチマークが必要である. 推論の中でも基本的な論理推論に関して,これまでも多くのベンチマークが提案されてきた $[16,17,18,19]$. これらは, 各 LLM の性能評価は勿論のこと,創発現象 [20] や反実仮想への脆弱性 [12] といった有用な知見を提供してきた.
しかしながら,これらベンチマークは主に英語が中心であり,日本語 LLM の論理推論能力を評価することはできない。日本語ベンチマークとして JGLUE [21]・JaQuAD [22] 等が有名だが,これらは知識の暗記によっても解ける可能性が高い。また,
NLI や RTE [23, 24, 25, 26, 21, 27, 28, 29] もしばしば常識知識を必要とするので,純粋な論理推論能力のみを問うことができない,以上より,日本語における論理推論ベンチマークの構築が必要である.
そこで我々は日本語の論理推論ベンチマーク JFLD (Japanese Formal Logic Deduction) を提案する. JFLD は論理推論の基本である演繹推論能力を評価する. 即ち,事実群と仮説が与えられ,多段の論理ステップ (多段演繹推論)を経て仮説を証明・反証する (図 1). JFLD の重要な特徴は,1. 知識と切り分けられた純粋な論理推論能力を評価する,2. 多様な演繹規則を問う,ことである (2 節).
更に,JFLDを用いて様々な日本語 LLMを評価し洞察を共有する.特に,GPT-4 に比べて日本語 LLM の論理推論能力は大きく劣ること,今後の方向性として大規模な論理推論データセットでの学習が有望であること,等が重要である.
なお,本ベンチマークとコードを公開する1.
1) https://github.com/hitachi-nlp/FLD
図 1: JFLD のサンプル。事実と仮説が与えられ,仮説を証明・反証するための多段演繹推論と回答を生成する. 事実が反実仮想的なので (i) 暗記した既存知識では解けず,純粋な論理推論能力のみを評価できる (2 節) (ii) 演繹規則の任意性を学習させることができる (付録 A.2).
## 2 ベンチマークの設計指針
本節では,数理論理学を訪れつつ純粋な論理推論能力とは何かを考え,ベンチマークの設計指針を定める.まず,以下の一段論理ステップを考えてみる:
1. 地球は太陽を
周回している
2. もし地球が太陽を周回すれば,地球には四季がある.地球には四季がある.
2 つ前提知識から結論を論理的に導いており, 妥当である. 次に,別の論理ステップを考える:
(地軸が傾いている我々の宇宙では) 前提知識 2 や結論は偽であるが,もし仮に前提知識が正しかったとしたら結論は論理的に導かれる. よって (2) も論理的には妥当である.最後に:
「ぴよぴよ」や「ぽよぽよ」が何かは不明だが,(3)も論理的に妥当であることだけは分かる.以上 (1)-(3) は記号を用いて演繹規則に抽象化できる:
ここまでの考察によれば,演繹規則の論理的妥当性は, $\mathcal{F}$ や $\mathcal{G}$ の内容の正しさ ( 知識的な正しさ) には依存せず (即ち $\mathcal{F}$ や $G$ は任意),あくまで前提から結論
図 2: 公理系による多段演繹推論は,その他の任意の演繹規則を表現できる。
が「論理的に導かれるか」のみに依存する. 知識的な正しさと論理としての妥当性は別ものである.
さて,人間にとっては,演繹規則 (4)を念頭に推論 (1)-(3)をこなすことは容易である。おそらくLLM も,(1) の前提を与えて結論を系列生成することはできよう.事前学習コーパスに類似のサンプルが存在し系列尤度が高いからである。しかしこれは, LLM が,演繹規則 (4) を,特に $\mathcal{F}$ や $\mathcal{G}$ の任意性を理解していることを,必ずしも意味しない.LLMが演繹規則 (4)を理解しているかどうかは,(2), (3) のような反実仮想的な前提知識下で結論を論理的に導けるかを問うて初めて浮き彫りになる。そこで:
・設計指針 1: 反実仮想的な推論サンプルにより, LLM が演繹規則を理解しているのかを問う.
さて,(4) 以外にも演繹規則は存在する:
以上のように,前提・結論として考えられる論理式の種類は無限なので演繹規則は無限種類存在する.最後に,多段演繹推論 (図 2 左) では,演繹規則を複数ステップ積み重ねて結論を導く。実は三段論法 (6) はより「原子的な」演繹規則による多段演繹推論により表現できる (図2右). 実際,公理系 (図3)と呼ばれる原子的な演繹規則群が存在し,以下を満たす:定理 1 (一階述語論理の完全性 Gödel, 1930). 全ての妥当な演繹規則は公理系による多段演繹推論によって表現できる.
さて,LLM が様々な演繹規則を扱えるかを問いたいが,ベンチマークに無限種類の演繹規則を含めることはできない,しかし,定理 1 によると,公理系による多段演繹推論さえ扱えれば,他の演繹規則も実効的に扱えることになる.そこで,
・設計指針 2: 公理系を用いた多段演繹推論をサンプルとする.定理 1 により,様々な演繹規則を扱えるかを問うことができる.
## 3 ベンチマークの構築手法
## 3.1 推論サンプルの自動生成
推論サンプルの構築方法として, 自動生成のアプローチ $[18,30,19]$ が研究されてきている. 人手構築に対するメリットは: 1. 大量の,2. 演繹規則に厳格に従った,3. 知識に囚われない反実仮想的な,サンプルを生成しやすいことである.
本研究では,著者らが提案した英語の推論サンプル自動生成機構 FLD $[31,32,33]$ を日本語に拡張する。FLD はまず,図 2 左のような,公理系による多段演繹推論サンプル生成する (設計指針 2).この際,各論理ステップで使われる演繹規則を可能なものからランダムに選ぶことにより, 多様なサンプルを生成する. 次に,サンプル中の各論理式を,テンプレートと語彙割り当てを用いて英語に変換する. 語彙割り当てにランダム性を持たせることにより,反実仮想的なサンプルを生成する (設計方針 1).JFLD ではテンプレートと語彙割り当てを日本語化する2)
## 3.2 日本語テンプレート・語彙割り当て
各論理式に対する日本語テンプレートを,計約 4,000 件を人手により作成した。例を示す:
2)論理推論能力を問うなら,論理式のままでもよい,と思われるかもしれないが,推論能力の “日本語上での” 運用能力の学習・評価を行うために日本語化は必要だ (付録 A.2).表 1: JFLD のデータセット群 (低難易度順)。それぞれ train/valid/test=30k,5k,5k サンプルからなる.
$
\forall x, F(x) \rightarrow G(x): F \text { なものは } G \text { だ }
$
次に, (7) 中の $F, G, a, b$ のような各記号に対して,語彙を割り当てる. 反害仮想的な例を作成するため,以下のような文法制約は満たしつつ,語彙を多言語 WordNet [34] からランダムに割り当てる:
- 述語 $(F$ や $G$ ) は,日本語の述語(動詞・名詞・形容動詞)を割り当てる。
・定数 $(a$ と $b)$ は,日本語の名詞を割り当てる.
以上の結果得られる割り当ての例を以下に示す:
$
\begin{gathered}
F: \text { “頑健” } G: \text { “腐敗” } \\
\forall x, F(x) \rightarrow G(x): \text { 頑健なものは腐敗だ }
\end{gathered}
$
最終的に図 1 のようなサンプルが得られる. 図 1 における「事実」が多段演繹推論の前提であり,「仮説」が多段演繹推論の結論に相当する.
## 3.3 データセット統計
JFLD には様々な難易度のデータセットを含めた (表 1).「木の深さ・分枝」は多段演繹推論木 $\left.{ }^{3}\right)$ の複雑度合いを制御し,論理ステップ数を決める。ノイズ事実数は,推論に無関係な事実の数を表す.これが多いほど,LLM が誤った事実を多段演繹推論に含める可能性が高くなるので,難易度が上がる。
## 4 日本語 LLM の性能評価実験
日本語 LLM(表 5)をまず train set で fine-tuning し,次に, test set 上の性能を評価した. fine-tuning に用いるサンプル数 $n$ を-10,000 の範囲で変えた. 学習の詳細は付録 A.1.また,GPT-4 の性能 $(n=5$, 文脈内学習) も評価した。
LLM は,事実と仮説を入力として,多段演繹推論4) と回答を生成する (図 1). 性能指標として,回答正解率と証明正解率 [33] を用いる. 回答正解率は,最終的な回答 (証明された/反証された/不明) が
4)“fact12 ->”のような記号も生成する
表 2: LLM の証明正解率. $n$ は学習サンプル数.
表 3: LLM(weblab-10B-instruct) が生成した,誤った論理ステップ (多段演繹推論のうちの 1 ステップ).
& \\
正しいかを判定する.証明正解率は,最終的な回答が正しく,かつ,多段演繹推論も正しいかどうかを判定する,より厳格な指標である。
## 5 結果と考察
## 5.1 定量評価 - 証明正解率
表 2 に各 LLM の証明正解率を示す。まず,GPT-4 の few-shot $(n=5)$ 性能について,低難易度データセット (D1-,D1) はそこそこ解けるが,高難易度データセット (D3, D8) の正解率は不十分であった.
few-shot 設定における日本語 LLM の性能は GPT-4 より更に低かった. 回答正解率によって性能を評価した場合 (付録 A.3),GPT-4 と差は更に開いた. 以上より, 日本語 LLM は, 事前学習の時点では十分な論理推論能力を獲得できていないことが分かる。
日本語 LLM 同士の比較では,概ね,大きなモデルの方が性能も高かった。
以上を総合すると,日本語 LLM の論理推論能力は,1. モデルの巨大化や事前学習の質・量の向上によってある程度の改善を見込めるが,2. (GPT-4 のように) 完全には届かない,と考えられる。
一方どのデータセットにおいてもサンプル数 $n$ の増加に伴い性能が改善した. よって,より大きな論理推論データセットでの学習が有望である. elyza の事前学習コーパスのほとんどは英語であり,日本語の量は他の LLM より遙かに小さい。それにも関わらず elyza は,その他の日本語 LLM と同等以上の性能を示した. 論理推論能力は言語間で転移可能だからではないかと考える.
## 5.2 定性評価 - 多段演繹推論の誤り分析
LLM によって生成された誤った論理ステップの例を表 3 に示す. 最初の例は「論理的幻覚」とでも言うべきもので,生成された結論は,前提事害から論理的に導けない. 第二の例では,結論とは関係ない前提事実 2 が選ばれている. 第三の例からは, LLM は否定の論理的意味を理解できていないことが分かる.以上より,日本語 LLM はまだ論理の基礎を理解できていないことが示唆される.
## 6 結論
日本語論理推論ベンチマーク JFLDを提案した.実験により日本語 LLM の論理推論能力が不十分であることを示した. 今後は,巨大な論理推論コーパスでの学習や,学習で得られた論理推論能力が広範なタスクに転移可能かどうか,等を調査したい.
## 謝辞
本研究は,計算機リソースとして,産総研の AI 橋渡しクラウド (ABCI) を用いた. 東京工業大学の岡崎直観先生には,内容に関するアドバイスを頂いた.日立製作所の清水正明氏には,社内大規模計算機環境の維持管理をして頂いた. 感謝申し上げる.
## 参考文献
[1] J McCarthy, ML Minsky, and N Rochester. A proposal for the dartmouth summer research project on artificial intelligence. 1955
[2] John W. McCarthy. Programs with common sense. In Proc. Tedding Conf. on the Mechanization of Thought Processes, pp. 75-91, 1959.
[3] Joseph Weizenbaum. Eliza - a computer program for the study of natural language communication between man and machine. Communications of the ACM, Vol. 9, No. 1, pp. 36-45, 1966
[4] T Winograd. Procedures as a representation for data in a computer program for understanding natural language, mit ai technical report 235. 1971.
[5] A. Colmerauer and P Roussel. The birth of prolog. The ALP Newsletter, 1973 .
[6] eh Shortliffe. Computer based medical consultations: Mycin. Elsevier, 1976. Charles Elkan and Russell Greiner. Building large knowledge-based systems: Representation and inference in the cyc project: Db lenat and rv guha, 1993
[8] Yasaman Razeghi, Robert L Logan IV, Matt Gardner, and Sameer Singh. Impact of pretraining term frequencies on few-shot numerical reasoning. In Findings of the Association for Computational Linguistics: EMNLP 2022, pp. 840-854, 2022.
[9] Damian Hodel and Jevin West. Response: Emergent analogical reasoning in large language models, 2023.
[10] Ishita Dasgupta, Andrew K. Lampinen, Stephanie C. Y. Chan, Hannah R. Sheahan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, and Felix Hill. Language models show human-like content effects on reasoning tasks, 2023.
[11] OpenAI. Gpt-4 technical report. ArXiv, Vol. abs/2303.08774, , 2023.
[12] Hanmeng Liu, Ruoxi Ning, Zhiyang Teng, Jian Liu, Qiji Zhou, and Yue Zhang. Evaluating the logical reasoning ability of chatgpt and gpt-4, 2023.
[13] Zhaofeng Wu, Linlu Qiu, Alexis Ross, Ekin Akyürek, Boyuan Chen, Bailin Wang, Najoung Kim, Jacob Andreas, and Yoon Kim. Reasoning or reciting? exploring the capabilities and limitations of language models through counterfactual tasks, 2023
[14] Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jiang, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, and Yejin Choi. Faith and fate: Limits of transformers on compositionality, 2023.
[15] Melanie Mitchell. Can large language models reason? blog, pp. https://aiguide.substack.com/p/can-large-language-models-reason, 2023 .
[16] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. The argument reasoning comprehension task: Identification and reconstruction of implicit warrants. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1930-1940, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
[17] Timothy Niven and Hung-Yu Kao. Probing neural network comprehension of natural language arguments. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4658-4664, Florence, Italy, July 2019. Association for Computational Linguistics.
[18] Peter Clark, Oyvind Tafjord, and Kyle Richardson. Transformers as soft reasoners over language. In Proceedings of the Twenty-Ninth International Conference on International Joint Conferences on Artificial Intelligence, $\mathrm{pp}$. 3882-3890, 2021.
[19] Oyvind Tafjord, Bhavana Dalvi, and Peter Clark. ProofWriter: Generating implications, proofs, and abductive statements over natural language. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3621-3634, Online, August 2021. Association for Computational Linguistics.
[20] Barret Zoph, Colin Raffel, Dale Schuurmans, Dani Yogatama, Denny Zhou, Don Metzler, Ed H. Chi, Jason Wei, Jeff Dean, Liam B. Fedus, Maarten Paul Bosma, Oriol Vinyals, Percy Liang, Sebastian Borgeaud, Tatsunori B. Hashimoto, and Yi Tay. Emergent abilities of large language models. TMLR, 2022 .
[21] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022 European Language Resources Association.
[22] ByungHoon So, Kyuhong Byun, Kyungwon Kang, and Seongjin Cho, JaQuAD: Japanese Question Answering Dataset for Machine Reading Comprehension, 2022.
[23] Yotaro Watanabe, Yusuke Miyao, Junta Mizuno, Tomohide Shibata, Hirosh Kanayama, Cheng-Wei Lee, Chuan-Jie Lin, Shuming Shi, Teruko Mitamura, Noriko Kando, et al. Overview of the recognizing inference in text (rite-2) at ntcir-10. In Ntcir. Citeseer, 2013.
[24] Hideki Shima, Hiroshi Kanayama, Cheng-Wei Lee, Chuan-Jie Lin, Teruko Mitamura, Yusuke Miyao, Shuming Shi, and Koichi Takeda. Overview of ntcir-9 rite: Recognizing inference in text. In Ntcir, 2011.
[25] Yoshikoshi Takumi, Kawahara Daisuke, and Kurohashi. Sadao. https://nlp.ist.i.kyoto-u.ac.jp/?2020.
[26] Hitomi Yanaka and Koji Mineshima. Compositional evaluation on Japanese textual entailment and similarity. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 1266-1284, 2022
[27] Yuta Hayashibe. Japanese realistic textual entailment corpus. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp.
6827-6834, Marseille, France, May 2020. European Language Resources Association.
[28] Hitomi Yanaka and Koji Mineshima. Assessing the generalization capacity of pre-trained language models through japanese adversarial natural language inference. In Proceedings of the 2021 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (BlackboxNLP2021), 2021.
[29] Tomoki Sugimoto, Yasumasa Onoe, and Hitomi Yanaka. Jamp: Controlled Japanese temporal inference dataset for evaluating generalization capacity of language models. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 4: Student Research Workshop), pp. 57-68, Toronto, Canada, July 2023. Association for Computational Linpp. $57-68$.
[30] Gregor Betz, Christian Voigt, and Kyle Richardson. Critical thinking for language models. In Proceedings of the 14th International Conference on Computational Semantics (IWCS), pp. 63-75, Groningen, The Netherland (online), June 2021. Association for Computational Linguistics.
[31] 森下皓文, 森尾学, 山口篤季, 十河泰弘. 形式論理学に基づく演繹コー パスによる言語モデルに対する演繹推論能力の付与. 言語処理学会予稿集, 2023.
[32] 森下皓文, 森尾学, 山口篤季, 十河泰弘. 人工演繹推論コーパスによる学習は言語モデルをどのように強化するか? 人工知能学会全国大会論文集, 2023.
[33] Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, and Yasuhiro Sogawa Learning deductive reasoning from synthetic corpus based on formal logic In Andreas Krause, Emma Brunskill, Kyunghyun Cho, Barbara Engelhardt, Sivan Sabato, and Jonathan Scarlett, editors, Proceedings of the 40th International Conference on Machine Learning, Vol. 202 of Proceedings of Machine Learning Research, pp. 25254-25274. PMLR, 23-29 Jul 2023.
[34] Francis Bond and Ryan Foster. Linking and extending an open multilingual Wordnet. In Proceedings of the 51 st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1352-1362, Sofia, Bulgaria, August 2013. Association for Computational Linguistics.
[35] Marius Mosbach, Tiago Pimentel, Shauli Ravfogel, Dietrich Klakow, and Yanai Elazar. Few-shot fine-tuning vs. in-context learning: A fair comparison and evaluation. In Findings of the Association for Computational Linguistics. ACL 2023, pp. 12284-12314, Toronto, Canada, July 2023. Association for Computational Linguistics
[36] Honghua Zhang, Liunian Harold Li, Tao Meng, Kai-Wei Chang, and Guy Van den Broeck. On the paradox of learning to reason from data, 2022.
[37] Zhangdie Yuan, Songbo Hu, Ivan Vulić, Anna Korhonen, and Zaiqiao Meng Can pretrained language models (yet) reason deductively? In Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics, pp. 1439-1454, 2023.
[38] Miles Turpin, Julian Michael, Ethan Perez, and Samuel R. Bowman. Language models don't always say what they think: Unfaithful explanations in chain-of-thought prompting, 2023.
[39] Tamera Lanham, Anna Chen, Ansh Radhakrishnan, Benoit Steiner, Carson Denison, Danny Hernandez, Dustin Li, Esin Durmus, Evan Hubinger, Jack son Kernion, Kamilè Lukošiūtè, Karina Nguyen, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Robin Larson, Sam McCandlish, Sandipan Kundu, Saurav Kadavath, Shannon Yang, Thomas Henighan, Timothy Maxwell, Timothy Telleen-Lawton, Tristan Hume, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, and Ethan Perez. Measuring faithfulness in chain-of-thought reasoning, 2023.
## A 参考情報
図 3: 一階述語論理の公理系
表 4:LLM の回答正解率. $n$ は学習サンプル数.
& - & - & 37.6 & $-1$ & - & - & - \\
## A. 1 実験設定
表 5: 日本語 LLM の詳細.
LLM の評価では文脈内学習がよく使われるが,JFLD のサンプ
こで,fine-tuningによる評価を行った. [35]によると,fine-tuning と文脈内学習は適切な実験設定において,同等の結果をもたらす.そこで我々も [35]に従う:学習率は 1e-05,バッチサイズは 32,300 勾配ステップ. ただし過学習を防ぐためエポック数を最大 50 に制限し, $n=5$ では $50 , n=100$ では 156 勾配ステップとした. 実験は 3 つの seed で行った. その他はコード1)参照のこと.
## A. 2 裏設計指針
- 疑問 1: 論理推論能力の評価が目的なら,論理式で書かれたサンプル (例: 図 2) だけで十分で,日本語化は不要では?
- 疑問 2: 日本語化するとしても「WordNet からランダムな語彙を割り当てることで反実仮想的な...」などと大仰な仕掛けは必要無い. 例えば「赤いぷよぷよは優しい」「優しいモンスターは強い」というように限られた語彙で十分では?その方が学習が簡単だし,人間にとっても分かりやすい.
疑問 1 への回答: 我々の最終目的は, 日本語において, 知識と推論を統合運用できる機械を作ることである. この第一歩として本研究では,純粋な推論に限ったベンチマークを作成した.最終目標から考えて,ベンチマークには,「論理推論能力の“日本語上での” 運用能力を学習・評価できること」が求められる. よって,各サンプルを日本語で書き下している. この回答には 「LLM が仮に論理式での推論を遂行できても,日本語でできるとは全く限らない. よって日本語での推論能力を問うためには,日本語のサンプルが必要である.」という前提がある.真に論理を理解していれば,即ち,例えば modus ponens(4)と $\mathcal{F}, \mathcal{G}$ の任意性を理解していれば,それが日本語で書かれていようが,推論を実行できるであろう (論理記号 $\rightarrow$ から“ならば”への変換のような自明な処理は当然実現できるとする). 実際これは,人間にとっては容易である.
しかし,LLM (Transformer) は帰納的な系列学習器なので,学習時と似ている条件付系列を生成することのみしかできない。学習データ次第では,論理式での推論は遂行できるが日本語での推論は遂行できない,ということは十分に起こりうる。
実際,このような挙動が,我々の予備実験で確認されている.適当な LLM を持ってきて,論理式で書かれた JFLD で追加学習する。この LLM に,論理式で書かれた推論問題を与えると,よく解ける. しかし,それと等価な日本語の推論問題を与えても,全く解けない。生成結果を見てみると,論理式データセットの学習する前とほとんど変化が無い: 論理とは程遠い,(おそらく事前学習の時点で学習していた) 系列を生成する. 結局, 論理式デー タセットでの学習で得られたのは, $\mathcal{F}$ や $\mathcal{G}$ といったアルファベットが入力された際にのみ論理的に振る舞う機械である.
なぜこのような現象が起こるというと,論理式で書かれた modus ponens(4)を見せられても,それを日本語の空間まで汎化させて良いかどうかを判断する材料は,そのサンプル中には存在しない. 人間は演繹的な心を持っているので勝手に汎化させてしまうが,帰納的な機械はそうはしない. 尚,このような論理推論における分布外への非汎化性は $[36,37]$ でも確認されている.
疑問 2 の回答の回答は,上記考察から従う.JFLDを日本語での論理推論能力を獲得するための学習データとして活用することを考える. FPや $G$ に入れる語彙を「ぷよぷよ」「赤い」などに限った場合,学習された LLM は「ぷよぷよ」「赤い」(とせいぜいその類義語) が入ってきた場合にのみ論理的に振る舞うようになる. $\mathcal{F}$ や $\mathcal{G}$ の任意性を学習させるためには,実際に $\mathcal{F}$ や $\mathcal{G}$ に任意の日本語を入れて見せる必要があるのである. このため本研究では,大語彙からランダムに選んだ日本語を割り当てている.
## A. 3 証明正解率の結果と考察
表 4 に回答正解率の結果を示す. 5.1 節で論じた証明正解率は,回答 (証明/反証/不明) に加えて多段演繹推論の正しさも要求するため,厳格な指標であった。一方,回答正解率は回答の合致のみを要求するため,random guess でも $33.3 \%$ と緩い指標である. GPT-4 の回答正解率は,証明正解率を大幅に上回っており,結果として日本語 LLM との性能差もより大きい. GPT-4 にが生成した多段演繹推論を分析すると,GPT-4 は間違った推論で正しい回答を生成していることがあることが多い.これは,GPT-4 が自ら生成した“推論”に必ずしも忠実に従わず,モデルの内部で完結して正しい推論を実現している可能性を示唆する。よって, GPT-4 の論理推論能力を計測する場合,証明正解率は過小評価に繋がっている可能性がある. 尚,LLM が自ら生成した思考系列に従わない,という観察は別の研究 $[38,39]$ でも得られている. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A4-2.pdf | # NeuBAROCO データセットによる大規模言語モデルの 推論能力の検証
森下 貴允 ${ }^{1}$ 安東 里沙子 ${ }^{1}$ 阿部 裕彦 1 小関 健太郎 ${ }^{1,2}$ 峯島 宏次 ${ }^{1}$ 岡田 光弘 1
1 慶應義塾大学 2 東京大学
\{morishita,risakochaan, hirohiko-abe\}@keio.jp kentaro.ozeki@gmail.com
\{minesima, okada\}@abelard.flet.keio.ac.jp
## 概要
この論文では、「現在の大規模言語モデルが論理推論をどれくらい正確に行うことができるのか」という問いを、特に大規模言語モデルが人間と同様の推論バイアスを示すかどうかという点に着目して探究する。論理推論として、論理学だけでなく認知科学の中で人間が自然に行う演繹推論の形式として広く研究されている三段論法に注目し、NeuBAROCO という三段論法データセットを導入する。このデー タセットは、もともと三段論法を用いて人間の推論能力を評価する心理実験のために設計されたもので、英語と日本語の三段論法推論を含んでいる。現在の代表的な大規模言語モデルで実験を行った結果、現行のモデルは人間と同様の推論バイアスを示し、特に含意関係が含意でも矛盾でもない推論問題で大きな改善の余地があることが示唆された。
## 1 はじめに
大規模言語モデル (Large Language Model, LLM) が一定の成功を収め、社会の変化に直結するような基盤技術として期待が高まる一方で、それが従来の $\mathrm{AI}$ に期待されてきたような正確な推論を自然言語上でどれくらい行うことができるのかはいまだ明らかではない。この論文では、人間の自然な演繹推論の形式として広く研究されている三段論法に注目し、LLM の推論能力を検証するための NeuBAROCO データセットを導入する。このデータセットは、もともと三段論法を用いて人間の推論能力を評価する心理実験のために設計されたもので [1]、これを転用して、LLM が人間と同様のエラー傾向、すなわち、推論バイアスを示すかどうかを検証する。
推論の認知科学研究 $[2,3,4]$ では、人間が様々な推論バイアスを示すことが多様な実験を通して明ら
かにされているが、その知見を活用して機械学習モデルの評価にも利用できる推論データセットを構築する試みは十分に進展していない。NeuBAROCO は、日本語と英語のパラレル推論データセットであり、各問題についてどのような推論バイアスが関連しているのか、詳細なタグが付与されている。またその一部には一連の心理実験 $[5,1]$ に基づいて、人間の正解率が対応付けられている。
以下では、言語処理での三段論法推論の関連研究を紹介し(2 節)、NeuBAROCO データセットの特徴について説明した上で(3 節)、このデータセットを用いて、代表的な LLM の推論能力を検証したべー スライン実験の結果について報告する(4 節)。
## 2 背景
## 2.1 三段論法
自然言語推論 (Natural Language Inference, NLI) とは、前提文と結論文 (仮説文とも呼ばれる) の間に含意関係が成り立つか否かを判定するタスクである。本研究では、含意 (entailment)、矛盾 (contradiction)、含意でも矛盾でもない、すなわち、中立 (neutral) という 3 つのラベルに分類する NLI タスクに着目する。三段論法とは、推論の中でも、2つの前提と 1 つの結論から成るものであり、前提と結論は表 1 の 4 つの形の基本的な量化文から構成される。
表 1 三段論法を構成する4つのタイプの文
例えば、次の三段論法は含意の例であり、前提文 (P1, P2) が真であれば結論文 $(\mathbf{H})$ もまた真である。
P1: すべてのA B Bである
P2: すべての B はCである
H: すべての A は Cである
次の例は、含意でも矛盾でもない中立の例である。
P1: すべての A は B である
P2: すべての C はBである
H: すべての A は Cである
三段論法は、形式的には単項述語論理で表現可能な比較的単純な論理推論であるが、人間にとって難しい推論であることが知られている [6]。どのようなタイプの三段論法が人間の推論エラーを引き起こしやすいか、つまり、推論バイアスを伴うかは認知科学の分野で広く研究されている $[2,3,4]$ 。
## 2.2 関連研究
三段論法に着目した機械学習・深層学習モデルの研究は近年盛んに行われている。三段論法推論の学習・評価用データセットとして、Dong et al. [7] や Gubelmann et al. [8] では、WordNet 等の言語資源や独自の単語リストを用い、三段論法のタイプに基づくテンプレートベースの自動生成手法によってデータセットを構築している。Gubelmann et al. [8] のデー タセットは格ラベルおよび含意、矛盾、中立の 3 值の正解ラベルを含むが、その他の情報は付加されていない。Avicenna [9] は、クラウドソーシングによって構築されたデータセットであり、2つの文を前提として何らかの三段論法の関係が成り立つかどうかの 2 値の正解ラベル (成り立つ場合はさらに結論の文)を含むが、格ラベルなどは含まれていない。これらはいずれも英語のデータセットである。
Wu et al. [10] は、SYLLOBASE というデータセットを構築している。SYLLOBASE は、自然言語で書かれた 5 種類のタイプの三段論法を含んでおり、既存の知識ベースから自動で作成された 50,000 のデータからなる。また、テストセットとして 1,000 データが人手でアノテーションされている。Wu et al. [10] では、zero-shot および few-shot の例示と、生成タスクと選択タスクが実施されている。生成タスクでは、学習済みのモデルの正解率がより高い傾向にあり、全体的に、結果の評価で使用する指標に応じてモデルの正解率が大きく異なっている。選択タスクでは、全体の正解率は $70 \%$ 程度で、定言三段論法での正解率が低かった。
Dasgupta et al. [11] および Lampinen et al. [12] は、三段論法の結論の内容が推論の妥当性の判断に影響
することを明らかにしている。これらの研究では、結論の内容が私たちの信念に相反する場合、相反しない場合、結論の文が意味のない単語から構成される場合に分類し、それぞれの場合で 2 つの前提と 1 つの結論の組み合わせが三段論法の推論として妥当か非妥当かを LLM 2 択で判定させている。これらの実験では、結論の内容が信念に相反せず、推論が妥当な場合、あるいは、結論の内容が信念に相反し、推論が非妥当な場合に、正解率が高いことが明らかになっている。なお、Lampinen et al. [12] では、 LLM の生成する確率分布と人間の解答時の反応時間を確信度の尺度として比較している。LLMでは、結論の内容が信念に整合する場合に、確信度がより高いことが明らかにされている。
## 3 NeuBAROCO データセット
## 3.1 BAROCO プロジェクト
本研究の背景にある初期の三段論法問題集は BAROCO と呼ばれ、大規模な被験者推論能力の研究のために設計・開発された。BAROCO は、人間の推論バイアスを伴う典型例の一つであるいわゆる信念相反課題(3.2 節を参照)を含む。また、標準的な言語的課題のほかに、空間的認知をテストするオイラー図課題も含み、これらの推論形式の相関及び双生児法による遺伝要因と環境要因の調査に用いられた $[13,1]$ 。また、行動経済学の実験課題と組み合わせた研究も行われている [5]。
Ando et al. [14] は、本研究に先行する予備的な研究であり、BAROCO 問題集を LLM の評価に応用することを目的として BAROCO 問題集の一部を転用して、375問の三段論法推論から構成される推論データセット NeuBAROCO を導入した。各推論課題には、含意、矛盾、中立の 3 值のラベルが人手で付与され、さらに後述の信念相反などの推論バイアスを引き起こす推論課題を含んでいる。本研究では Ando et al. [14] の NeuBAROCO 三段論法データセットをさらに整備・拡張し、同時に、被験者実験で一般的な 5 択選択課題を追加し、現在の代表的な LLM で評価実験を行う。
## 3.2 データセットの概要
オリジナルの BAROCO 問題集は、 2 つの前提と、結論となりうる複数の選択肢で構成されている。 BAROCO 問題集の各問題を NLIモデルの評価で一般
的に使用される形式に変換することで NeuBAROCO データセットを構築した。NeuBAROCO は現在、 870 問の 3 択判定課題、すなわち、推論を含意・矛盾・中立に分類する課題を含む。その内訳は、含意に分類される問題が 282 問、矛盾に分類される問題が 204 問、中立に分類される問題が 384 問となっている。BAROCO 問題集はすべて日本語で書かれているが、NeuBAROCO データセットでは、それらの問題を英語に翻訳し、日本語・英語の対訳推論コーパスとして利用可能である。
NeuBAROCO データセットは、元の BAROCO 問題集の様式を踏襲し、2つの前提と、結論となりうる 5 つの選択肢からなる 80 問の問題(5 択選択課題)を含む。各推論に対し、正解となる選択肢の番号がラベル付けされている。 5 択選択課題の例を付録 A. 3 に示す。この問題の正解は 4 の選択肢である。
## 3.3 アノテーション
推論バイアスを伴うタイプの問題を分類するため、NeuBAROCO データセットの各推論を、記号、信念相反あり、信念相反なし、Conversion の 4 つの異なるタイプに分類してラベル付けを行った。それぞれの件数と例を表 2 に示す。
記号すべてのタームが抽象的な記号(アルファベット)の文から構成されている場合、推論は「記号」とラベル付けされる。人間にとって、これらは信念に対して中立であると考えられる。
信念相反あり前提もしくは結論の少なくとも一つが常識的な信念と一致しない場合、推論は「信念相反あり」とラベル付けされる。表 2 の例では、「すべての動物はトマトである」と「ある人間はトマトである」が常識に反する内容となっている。
信念相反なし前提と結論のすべてで信念相反が生じていない場合、推論は「信念相反なし」とラべル付けされる。
Conversion 三段論法の代表的な推論バイアスとして、Conversion error が知られている $[2,6]$ 。例えば、表 2 の全称肯定文が含まれている例では、「すべての B A である」を「すべての A はBである」 と読み替えると、正解は「含意」となる。また、特称否定文が含まれている例では、「ある動物は霊長類でない」を「ある霊長類はチンパンジーでない」 と解釈すれば、正解が「含意」となる。Conversion error とはこのようにタームを誤って置換することで起こるエラーのことである。このタイプの推論を区別するため、「中立」とラベル付けされている推論のうち、前提に全称肯定文もしくは特称否定文が含まれており、少なくとも一つの前提のタームを入れ替えて解釈した場合にラベルが中立から含意に変わるような推論を、Conversion とラベル付けした。
& \\
表 2 NeuBAROCO データセットで記号、信念相反あり、信念相反なし、Coversion とラベル付けされた推論の例
表 35 択選択課題における各モデルの正解率 $(\%, n=80)$
## 4 実験
LLM の推論能力の評価のため、NeuBAROCO デー タセットを用いて以下の実験を行った。
## 4.1 実験設定
2 種類の課題について、問題の解答方法の指示と、本データセットから生成した問題 1 題を含むテキストを 1 回の試行の入力(プロンプト)として、問題数分の試行における言語モデルの出力を収集し、全体および分類ごとの正解率を尺度として評価した。実験には、OpenAI 社が API を提供する GPT-3.5 (gpt-3.5-turbo-1106) および GPT-4 (gpt-4-0613)1)を言語モデルとして用いた。解答の長さを制限するため、最大出力トークン長を 10 に設定し、その他のハイパーパラメータは既定値を用いた。
2 種類の課題はそれぞれ以下の形式であり、英語と日本語の各言語で問題とプロンプトを生成した。
表 43 択判定課題における各モデルの正解率 $(\%, n=870)$
表 55 択選択課題における各モデルの正解率 $(\%, n=80)$
3 択判定課題三段論法の大前提 - 小前提と仮説 (結論の候補)を提示し、「含意」、「矛盾」、「どちらでもない」のいずれかを一語で解答させる。この課題では、(i) 指示と問題のみを与えるパターン(例示なし、zero-shotプロンプト)と、(ii) 正しい三段論法の例数例を指示と問題の間に挿入したパターン(例示あり、few-shot プロンプト)の2 パターンで実験を行った。パターン (i) のプロンプトの例を付録 A.1、 パターン (ii) で挿入した例示を付録 A. 2 に示す。
5 択選択課題三段論法の大前提・小前提を提示し、結論の候補 4 つと「どれでもない」の 5 つの選択肢から正しい選択肢の番号を解答させる。プロンプトの例を付録 A. 3 に示す。
## 4.2 結果と分析
3 択判定課題と 5 択選択課題の評価結果をそれぞれ表 4 と表 5 に示す。 3 択判定課題について、以下では例示なし(zero-shot プロンプト)の場合について述べるが、GPT-4 では特に例示の追加(few-shot プロンプト)によって英語と日本語のいずれにもおいても全体正解率の向上が見られ、英語で 5.40 ポイント、日本語で 9.20 ポイント高くなっている。
3 択判定課題英語では、GPT-4 が $69.89 \%$ の全体正解率で GPT-3.5を 18.28 ポイント上回った。他方で、正解ラベルが「中立」である問題の正解率は、 GPT-3.5 から GPT-4 で向上しているものの、GPT-4 でも $51.04 \%$ と、他の正解ラベルでの正解率に比べて 30 から 40 ポイント程度低くなっている。
日本語では、GPT-3.5 の全体正解率が $38.16 \%$ に留まっているが、GPT-4 では $70.11 \%$ と英語の場合と同等以上に改善している。いずれのモデルでも、正解ラベルが「含意」である問題の正解率は高い。一方、英語・日本語ともに、正解ラベルが「中立」である問題の正解率は他の正解ラベルでの正解率に比べて GPT-3.5 および GPT-4 ともに低く、few-shot プロンプトを追加した GPT-4 でも 6 割台に留まる。
問題のタイプごとの正解率では、記号タイプに分類される問題の正解率が多くのケースで全体正解率を上回っている。また、GPT-4、GPT-3.5 とも、信念相反ありの問題は信念相反なしの問題よりも正解率が低いが、GPT-4 ではその差は少ない。Conversion errorを引き起こす問題(Conversion タイプに分類される問題)の正解率は、ほとんどのケースで全体正解率より顕著に低くなっている。
5 択選択課題 GPT-4 の正解率は英語で 83.75\%、
ポイントと 58.75 ポイント上回り高い性能を示した。 また、 3 択判定課題、 5 択選択課題のいずれにおいても、GPT-4 は英語より日本語で正解率が高い傾向が見られた。 5 択選択課題の正答率は、 3 択判定課題の含意のケースの正答率と同様に高い傾向を示している。これは、 5 択選択課題では基本的に前提文と正解の結論文の関係は含意であり、中立の問題は含まれないことが影響していると考えられる。
## 5 おわりに
本稿では LLM の論理推論能力の検証のため、日本語・英語の三段論法からなる NeuBAROCO データセットを導入した。ベースライン実験の結果、現状の LLM は含意ラベルが「中立」の問題、特に人間の推論バイアスとして知られている Conversion error を引き起こす問題に関して大きな改善の余地があることが示唆された。オリジナルの BAROCO 問題集 (5 択選択課題)では、各タイプの三段論法に対して大規模な被験者実験による正答率が付与されている。人間の正答率との詳細な比較は今後の課題の一つである。
## 5.1 謝辞
BAROCO 問題集の初期バージョンについて情報提供をいただいた敷島千鶴氏、佐藤有理氏に感謝します。本研究は、JST、CREST、JPMJCR2114、JSPS 科研費 JP21H00467、JP21K18339、JP21K00016 の助成を受けたものです。
## 参考文献
[1] Chizuru Shikishima, Kai Hiraishi, Shinji Yamagata, Yutaro Sugimoto, Ryo Takemura, Koken Ozaki, Mitsuhiro Okada, Tatsushi Toda, and Juko Ando. Is g an entity? a Japanese twin study using syllogisms and intelligence tests. Intelligence, Vol. 37, No. 3, pp. 256-267, 2009.
[2] Jonathan St.B. T. Evans, Stephen E. Newstead, and Ruth M. J. Byrne. Human Reasoning: The Psychology of Deduction. Psychology Press, 1993.
[3] Ken Manktelow. Reasoning and Thinking. Psychology press, 1999. K. マンクテロウ『思考と推論: 理性・判断・意思決定の心理学』服部雅史・山祐嗣(監訳),北大路書房, 2015.
[4] Keith Stenning and Michiel Van Lambalgen. Human Reasoning and Cognitive Science. MIT Press, 2012.
[5] Chizuru Shikishima, Kai Hiraishi, Shinji Yamagata, Juko Ando, and Mitsuhiro Okada. Genetic factors of individual differences in decision making in economic behavior: A Japanese twin study using the Allais problem. Frontiers in Psychology, Vol. 6, p. 1712, 2015.
[6] Bart Geurts. Reasoning with quantifiers. Cognition, Vol. 86, No. 3, pp. 223-251, 2003.
[7] Tiansi Dong, Chengjiang Li, Christian Bauckhage, Juanzi Li, Stefan Wrobel, and Armin B Cremers. Learning syllogism with euler neural-networks. arXiv preprint arXiv:2007.07320, 2020 .
[8] Reto Gubelmann, Christina Niklaus, and Siegfried Handschuh. A philosophically-informed contribution to the generalization problem of neural natural language inference: Shallow heuristics, bias, and the varieties of inference. In Proceedings of the 3rd Natural Logic Meets Machine Learning Workshop (NALOMA III), pp. 38-50, 2022
[9] Zeinab Aghahadi and Alireza Talebpour. Avicenna: a challenge dataset for natural language generation toward commonsense syllogistic reasoning. Journal of Applied Non-Classical Logics, Vol. 32, No. 1, pp. 55-71, 2022.
[10] Yongkang Wu, Meng Han, Yutao Zhu, Lei Li, Xinyu Zhang, Ruofei Lai, Xiaoguang Li, Yuanhang Ren, Zhicheng Dou, and Zhao Cao. Hence, socrates is mortal: A benchmark for natural language syllogistic reasoning. In Findings of the Association for Computational Linguistics: ACL 2023, pp. 2347-2367, 2023.
[11] Ishita Dasgupta, Andrew K Lampinen, Stephanie CY Chan, Antonia Creswell, Dharshan Kumaran, James L McClelland, and Felix Hill. Language models show human-like content effects on reasoning. arXiv preprint arXiv:2207.07051, 2022.
[12] Ishita Dasgupta, Andrew K. Lampinen, Stephanie C. Y.
Chan, Hannah R. Sheahan, Antonia Creswell, Dharshan Kumaran, James L. McClelland, and Felix Hill. Language models show human-like content effects on reasoning tasks, 2023.
[13] Chizuru Shikishima, Juko Ando, Pierre Grialou, Ryo Takemura, and Mitsuhiro Okada. A behavioural genetic study of syllogism solving using linguistic and graphical representations: A preliminary report. In Images and reasoning: Interdisciplinary conference series on reasoning studies, Vol. 1, pp. 69-85. Keio University Press Tokyo, 2005.
[14] Risako Ando, Takanobu Morishita, Hirohiko Abe, Koji Mineshima, and Mitsuhiro Okada. Evaluating large language models with NeuBAROCO: Syllogistic reasoning ability and human-like biases. In Stergios Chatzikyriakidis and Valeria de Paiva, editors, Proceedings of the 4th Natural Logic Meets Machine Learning Workshop, pp. 1-11, Nancy, France, June 2023. Association for Computational Linguistics.
## A 付録
## A. 13 択判定課題のプロンプト例
Determine the correct logical relationship between the given premises and the hypothesis.
- Answer "entailment" if the hypothesis follows logically from the premises.
- Answer "contradiction" if the premises and the hypothesis are logically incompatible with each other.
- Answer "neither" if the relationship is neither "entailment" nor "contradiction".
Your answer must be one word: "entailment", "contradiction", or "neither".
Premise 1: One friend of Taro is a friend of Paul.
Premise 2: All of Paul's friends are German.
Hypothesis: All of Taro's friends are German.
The answer is:
## A. 2 Few-shot プロンプトで指示と課題の間に挿入した例示(3 択判定課題)
Premise 1: Some X are Y.
Premise 2: All Y are Z.
Hypothesis: All X are Z.
The answer is: neither
Premise 1: Some X are Y.
Premise 2: All Y are Z.
Hypothesis: Some X are Z.
The answer is: entailment
Premise 1: Some X are Y.
Premise 2: All Y are Z.
Hypothesis: No X are Z.
The answer is: contradiction前提 1: ある X は Y である。
前提 2: すべての Y はZである。
仮説: すべての X はZである。
答えは: どちらでもない
前提 1: ある X は Y である。
前提 2: すべての $\mathrm{Y}$ は Zである。
仮説: ある XはZである。
答えは: 含意
前提 1: ある X は $\mathrm{Y}$ である。
前提 2: すべての $\mathrm{Y}$ は Zである。
仮説: どの $\mathrm{X}$ も Zでない。
答えは: 矛盾
## A. 35 択選択課題のプロンプト例
Select one statement from the five options provided that logically follows as a conclusion from the two premises presented in each problem. Answer by providing the number of your choice.
Premise 1: All the rings in this box are Yuki's rings.
Premise 2: None of Yuki's rings are gold rings.
1. All the rings inside this box are gold rings.
2. Some of the rings inside this box is a gold ring.
3. none of them.
4. None of the rings in this box are gold rings.
5. Some ring inside this box is not a gold ring.
The answer is:
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A4-3.pdf | # LLM の出力結果に対する人間による評価分析と GPT-4 による自動評価との比較分析
関根聡 ${ }^{1}$ 小島淳嗣 ${ }^{2}$ 貞光九月 ${ }^{2}$ 北岸郁雄 ${ }^{2}$
${ }^{1}$ 理化学研究所AIP ${ }^{2}$ マネーフォーワード
satoshi.sekine@riken. jp kojima. atsushi@moneyforward. co.jp
## 概要
本論文では、 2 つの LLM の出力結果に対して「複数の人間による評価の分析」および「人間の評価と GPT-4 による自動評価結果の比較分析」を報告する。人間による評価は 5 人で行い、回答が質問に答えているかという関連性、回答内容の正確性、回答の流暢性、情報量を 5 スケールで評価した上で、出力の優劣を判定した。このデータを概観し、優劣の判定がどのようになされたかについての仮説を立てた。 また、この人間による評価結果と GPT-4による評価結果は大きく食い違っていたが、その原因を突き止めた。一方の LLM は情報量が多いが正確性に欠けるものであり、もう一方が一般的なことしか書かれていないため正確性には問題が少なかったシステムであった。最初のシステムに対し、人間の評価では情報が不正確であると判断されて低い評価を受けたが、 GPT-4 は正確性が判断できず「具体性があり情報量が多い」というコメントと共に高い評価を下した。 GPT-4 は正確性の判断に弱いということは、評価コメント中に認められたハルシネーションからも観察され、これが判定の食い違いの大きな理由であったことが分かった。これらの分析を基に今後の LLM 開発における課題を考察した。
## 1. 背景
GPT を始めとする生成 AI (LLM)が、数多くのタスクにおいて非常に高い精度で対話的な言語生成を行い、実応用化が広がるなどの影響を与えている。その開発に取り組む際には、出力の評価が重要であるが、 これには困難が伴う。単語表現などの抽出タスクや factoid などの質問応答、選択肢から正解を選ばせる分類問題は自動的な評価が容易であるが、対話型生成 AI の本来の魅力のごく一部しか評価できない。
この問題に対して、生成 AI を利用して評価を行うという考え方があり [1]、そのサービスも展開されている [2]。つまり、質問文と 2 つの生成 AI の出力を入力とし、どちらの出力の方がより良いものかを生成 AI に判定させて評価を行うというものである。 しかしながら、たとえば[1]で報告されている「人間同士の評価一致率と、人間と生成 AI との評価の一致率がほぼ等しい」という報告をそのまま鵜吞みにし、どのような面で評価が一致しているのか、一致していないのか、および、出力のどういった面に注目して人間や生成 AI は評価を行なっているのかといった分析は著者の知る限り、存在しない。本論文では、日本語の生成 AI の出力を GPT-4[3] で評価する Rakuda ベンチマーク [2]の評価タスクを題材に取り、「複数の人間による評価の分析結果」および「人間の評価と GPT-4 の評価結果の比較分析」を行った。
## 2. 実験セッティング
## 2.12 つの生成 Al のシステム
本実験では、 2 つの生成 AI システムを利用して評価実験を行なった。一つは OpenAI が提供している GPT3. 5-turbo-1106[4]である。もう一つは、マネー フォーワードが構築した houou-instruction-7b-v2 (以下、houou-v2)である [5] [6]。このシステムは、 L1ama-2[7]をベースに日本語英語の追加事前学習を行なった rinna/youri-7b[8]を元にし、理研 AIP を中心に構築された” ichikara-instruction (4802) ” [9] [10]で SFT の学習を行なったシステムである。”ichikara-instruction”の有用性は、以前のバージョン (houou-instruction-7b-v1) でも検証されており、このインストラクションの影響が大きいことは分かっている。
## 2.2 Rakuda ベンチマーク
Rakuda ベンチマークは、日本語生成 AI の出力を評価するために作られたベンチマークで、日本の地理、歴史、政治、経済に関する各 10 問、全体で 40 問の質問からなる。それぞれの分野の知識を問いながら説明も求める形式の問題が多く、分野は偏るものの単純なクイズや質問応答と比較すると、生成 AI の特徴を捉えた評価セットだと言える。図 1 に質問の例を示す。また、Rakuda ベンチマークは GPT-4により評価を行なっている。この際に利用されるプロンプトを付録 A. 1 に載せる。
\\
図 1.Rakuda ベンチマークの質問例
## 2.3 評価アノテーター
評価実験には 5 名のアノテーターが参加した。大学学部生 4 名と元国語講師の主婦 1 名である。これまで、” ichikara-instruction” の構築に参加しており、しっかりとした言語知識を持ち、信頼できるデーターを構築してくれている方々である。
## 3. 人間による評価結果の分析
本節では、 5 名のアノテーターによる評価結果と、 アノテーターの判定の一致度、人間の優劣判定導出に関する仮説など、人間の評価の分析について報告する。
## 3.1 評価の方法
アノテーターには、表 1 に示した 5 つ項目に関する判定と自由記述のコメントを各データ(質問と回答のペア)に対して記載するよう依頼した。回答はどのシステムが出力したものか分からないよう、 ランダムに” A" 、”B”と記号化されいる。
} \\
表 1 。評価項目
アノテーターによる評価結果の例を付録 A. 2 に載せる。そこにあるように、アノテーターは正確性などについても細かく調心゙、1つの質問に対して平均 15 分で評価を行なった。
## 3.2 評価結果
5 人による 5 つのスコアの平均值および判定数の平均値は表 2 の通りであった。(「H」は houou、「G」 はGPT-3.5、「同」は同等と判定された数。セル内の上側は平均スコア、下側はそのシステムが勝った数)。 この結果から、「関連性」は過半数が同等であるが、 それ以外はややGPT の方が優れている。実際、両方共、質問に対して妥当な回答をしている場合が多い。「流暢性」はほぼ同程度である。「正確性」はGPT3.5 が非常に優れていて、「情報量」は houou の方が非常に優れている。全体的な「優劣」では、GPT が優れているという結果であった。
表 2 。人間による評価結果の平均值
## 3.3 統合的な優劣判定
表 3 で示された平均值ではなく、GPT-4による自動判定結果と比較するためにも、個々の質問に対して、5 人のアノテーターの結果をまとめた統合的な優劣判定を作成した。まず、いずれかのシステムを
「優」と判定した人が過半数いて、「劣」と判定した人が 1 名以下の場合、「優」と判定されたシステムを勝者とする。2 つのシステムで票が割れた場合
(つまり「優」と「劣」が 3 対 2、もしくは 2 対 3 となった場合)には第一著者がデータおよびアノテー ターのコメントを見て判定したものを統合結果とした。そのような場合は 6 件あり、そのうち 3 件は多数決そのまま、残りの 3 件は多数側のアノテーター の判定に疑問があり「同等」となった。 3 人以上が同じシステムを「優」と判定しなかった場合には、 2 つのシステムは同等とした。この結果を表 3 に示す。平均値の結果(表 2)とほぼ同様である。
表 3 . 人間による統合的な評価結果
## 3.4 アノテーター同士の一致度
アノテーター同士の評価の一致度は[1]の論文同様、異なるシステムを 2 人の評価者が選んだ場合には 0 、同じものを選んだ場合には 1 、同等が含まれる場合には 0.5 として、平均値を計算すると $66.75 \%$ となった。[1]の論文の概要では一致度が $80 \%$ 以上と述べられているが、この論文の Appendix D. 3 を読むと、この数字は「同等を除外した場合」の値であり、本論文と同じ評価では $63 \%$ と報告されており、ほぼ同じ結果である。統合判定とそれぞれのアノテータ一の判定との一致度は $79.25 \%$ な゙り、これも[1]の論文の $81 \%$ と同程度の数字となっている。
## 3.5 優劣判定導出に関する仮説
各アノテーターがシステムの優劣をどのように導出したかを考察する。各アノテーターは 4 つの評価項目とコメントを記載し、優劣判定を行っている。 この評価項目が優劣の判定に関係していると考えられるが、コメントも参考にしながら、後述のようなアルゴリズムを考案した。このアルゴリズムに基づくと、4 例を除いて全ての優劣判定が説明できることが分かった(4 例は全て「同等」が絡んでいる)。 このアルゴリズムは直感的でもあり、自然言語で表現すると下記のように表現できる。
くアルゴリズム>
1. 関連性の平均の差が 0.5 以上だった場合には、 それが良いほうが「良い回答」
2. 残りの内、正確性の平均の差が 0.8 以上だっ
た場合には、それが良いほうが「良い回答」
3. 残りの内、情報量の平均の差が 1 以上だった場合には、それが良いほうが「良い回答」
4. 残りの内、流暢性の平均の差が 1 以上だった場合には、それが良いほうが「良い回答」
5. そうでない場合には同等
<自然言語による記述 $>$
まず、質問に対する回答でなければダメで、次に、 そこに書かれている情報が正しいこと。それらが満たされていれば、より詳しく書いてあり、流暢である方がより良い回答である。
## 4. GPT-4 の自動評価との比較分析
Rakuda ベンチマークでの (GPT-4 による) 評価結果を表 4 に示す。houhou-v2 システムが GPT-3. 5 に優つているという結果が得られた。この結果は、表 3 に示した人間による統合的な評価結果とは全く逆である。詳細な分析を行った。まず、表 5 に 2 種類の評価の confusion matrix を示す。
表 4. Rakuda ベンチマークによる評価結果
表 5. 人間評価結果(横軸)とGPT-4 による評価結果(縦軸)の confusion matrix
表 5 における人間と GPT-4 の評価結果の大きな相違点としては、GPT-4 が「houou が良い」と判定した 27 件の内 13 件について人間は「GPT-3.5が良い」 と判定し、同じく 5 件について人間は「同等である」 と判定していることが分かる。付録 A. 2 はこの 13 件の内の一例であり、同じ質問に対する GPT-4 の出力を付録 A. 3 に載せる。最初の 13 件について、出力、評価結果、コメントを全て読み、詳細な調査したところ、以下のことが分かった。
- 正確性の値は、GPT-3.5 の方が 1.39 の差をつけて優れていると判定されている。この值はそれ以外の平均の 0.60 と比較して非常に大きい。つまり、人間はこれらのデータに対し、正確性の点でhououの出力は大きく劣ると判定している。
- 多くの場合、houou は関連した数值や具体的情報を記載しているが、誤っている場合がある
- 多くの場合、GPT-3.5 の出力は一般的な説明のみであり、正確性に影響するような数値や具体的な情報を使った説明が少ない。そのため正確性が比較的に低くならないと考えられる※i
- GPT-4 による判定説明文の中に、「houou の説明の方が具体的で詳細が記されていて優れている」という意味の記載が半数以上にあり、情報量について優れていると判定している。逆に、情報が間違っている場合でも「この記述は正確であり」という言及が見られ、正確性の判断ができていないことが伺える。
付録 A.2,A. 3 に記載した例や対象の 13 例のみではなく、全体的に見ても、GPT-3.5 の出力には具体的な数字や情報の記載が少なく、一般的なことのみが書かれている場合が多い。他方、houou では、数值や具体的な情報による詳細な記述をしている場合が多い。これは、ichikara-instruction のアノテーターリー ダーに問い合わせたところ「インストラクションの回答にはその説明の確証になるようなデータや事実を入れるように指導している」と述べており、その結果が houou の出力の特徴に表れていると考えられる。これらをまとめると、下記のことが導ける。
- houou は具体的な数値や具体例を含んだ情報量の多い出力をしているが、そこには誤りが含まれている。その誤りを人間は見抜いたが、GPT4 は見抜けず、優劣判定の差ができた。
- 正確性についても、インストラクションが大きな影響を与えていた。つまり、情報量と正確性は、完全なシステムではない限り、トレードオフの関係にあり、houou は情報量は豊かであるが、そのために正確性を損ねた。
- 知識を問う質問が多い「地理」の 10 問中 5 問で、審判である GPT4 のコメントにハルシネー
※i 付録 A. 2 の例で説明する。houou の出力(B)には、憲法 43 条(正しくは 14 条)、小委員会の名前と設置日 (このような名前の小委員会存在しない) など付加的で不正確な情報が記載されている。一方、GPT-3.5 の出力
ションが含まれていた。上記の分析も含め、やはり、GPT4 は正確性に弱いと考えられる。
- よく言われる「GPT は長い回答に良いスコアを与える」というのは正しく因果関係を捉えておらず、「GPT は正確性の判断は苦手で、それ以外の要素で判断しており、長く詳細な回答は結果的に良いスコアを得ている」と考えられる。
これらのことを鑑みると、GPT はハルシネーションを避けるために、具体的な数値や細かい説明は避け、一般的な説明に終始するインストラクションチュー ニングをしているのではないかとも推測できる。
## 5. 考察
本論文の分析を今後の LLM の開発に繋げるための考察を行う。まずは、人間の判定アルゴリズムが推測できたことにより、新たな LLM 評価方法の模索が望まれる。ただし、現状の生成 AI が直接的には正確性を判定することができないことが課題になるかもしれない。しばらくは人間による評価も大きな価値があると考えられる。また、インストラクションの重要性が再認識されたことにより、注意深くその設計方針を再検討する必要がある。ichikarainstruction では、各質問回答ぺアに様々な種類のタグを付与する計画であるが、少なくともそこには「詳細度」のようなタグの種類を考案し、現在の GPT の出力タイプ(一般的な説明)と houou の出力タイプ (具体的な説明も提示)の間を調整可能な仕組みの研究が一つのテーマになるであろう。
また、現状では深く分析ができておらず、結論を導く段階にはないが、興味深い現象が観測されている。例えば、Rakuda ベンチマークにある 4 つのカテゴリ一毎に人間の評価、GPT-4 の評価ともに大きな違いがある。また、アノテーターによる判定の違いは LLM のパーソナライゼーション研究の取っ掛かりとなると思われる。GPT-4 の出力はシステムの順番を変えると評価結果が異なる現象を観察している。「関連性」の評価結果とインストラクションのカバレージにも関係性がありそうである。日本語の LLM をしっかりと構築していくためには、着実な歩みを進めていくことが非常に重要だと考える。
にはこのような「具体的な情報」はほぼない。付録 A. 3 に示した通り、GPT-4 はこの誤りが含まれる houou の出力に対し、「正確さと相関性も(中略)ユーザーの質問に対して十分でした。」と書いている。
## 謝辞
本論文の評価分析に関し、LLM 勉強会での議論が参考になった。本研究に参加した 5 人のアノテータ一の地道な努力に感謝する。また、ichikarainstruction 作成チームのアノテーターをはじめとするメンバーの努力や、本論文に対する有益なコメントにも感謝する。
## 参考文献
1. Zheng et.al. "Judging LLM-as-aJudge with MTBench and Chatbot Arena". 37 th Conf. of NeurIPS. 2023.
2. Rakudaベンチマーク.https://yuzuai.jp/benchmark
3. GPT-4. https://openai.com/gpt-4
4. GPT-3.5-turbo-1103.
https://platform.openai.com/docs/models/gpt-3-5
5. 小島、北岸. “大規模言語モデルhouou (鳳凰): 理研ichikara-instruction データセットを用いた学習と評価”. 言語処理学会第 30 回年次大会. 2024.
6. houou-7b-instruction-v2.
https:/huggingface.co/moneyforward/hououinstruction-7b-v2
7. Llama-2. https://ai.meta.com/llama/
8. rinnna/youri-7b.
https://rinna.co.jp/news/2023/10/20231031.html
9. ichikara-instruction. LLMのための日本語インストラクション作成プロジェクトホームページ: https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成.
10. 関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. “ichikara-
instruction: LLM のための日本語インストラクションデータの作成”. 言語処理学会第 30 回年次大会. 2024.
## 付録 A. 1 Rakuda ベンチマークで利用している prompt
prompt = """あなたは、回答の質をチェックするための審判員です。
[質問]
\{question\}
[アシスタント 1 の回答の開始]
$\{$ as1 $\}$
[アシスタント 1 の回答の終了]
[アシスタント 2 の回答の開始]
\{as2\}
[アシスタント 2 の回答の終了]
上に表示されたユーザーの質問に対する 2 つの AI アシスタントのパフォーマンスについて、あなたのフィードバックをお願いします。回答の有用性、関連性、正確性、詳細度、日本語能力を評価してください。まず、アシスタントの有用性、関連性、正確性、詳細度、日本語能力の評価を提供してください。評価の包括的な説明も提供してください。ユ ーザーは日本語しか話さないので日本語で書かれていない回答には低評価をつけてください。偏見を避け、回答の提示された順序があなたの判断に影響を及ぼさないことに気をつけてください。両方の解答を慎重に評価した後、評価が高い方のアシスタントの解答を選び、アシスタント 1 の回答であれば 1 を、アシスタント 2 の回答であれば 2 を、そしてアシスタント 1 とアシスタント 2 の間から選べない場合は 3 を最後の行に出力してください"""
## 付録 A. 2 人間による評価結果の例
& & & & & 5 & 5 & 5 & 2 & 5 & 5 & 5 & 5 & A \\
## 付録 A. 3 上記の同じ問題に対する GPT-4 の評価結果の出カ
“アシスタント 1 の説明は具体的で詳細であり、一票の格差問題の定義を明らかにしています。また最高裁判所の判決、参議院の対応、その影響、そして日本の政治における重要性について具体的な事例を用いて説明しています。一方、アシスタント 2 も一票の格差問題とその影響について明確に説明していますが、具体的な事例や裁判の判決などの具体的な情報は提供していませんでした。その結果、こちらの説明は抽象的で一般的なものとなってしまっています。¥n¥n 両者とも日本語の表現は適切で、正確さと相関性も一票の格差問題が日本の政治にどのような影響を与えているかという一ザーの質問に対して十分でした。しかしながら、アシスタント 1 の方が具体的な情報を提供しているため、より詳細性と有用性が高いと言えます。林的したがって、アシスタント 1 がユーザーの質問に対してより有用で詳細な情報を提供していると考えます。ですので、この質問に対する優れた回答はアシスタント 1 のものであると評価します。” | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A4-4.pdf | # 制約が異なる指示で生成された文章に対する LLM 生成検出の頑健性
小池隆斗 ${ }^{1}$ 金子正弘 ${ }^{2,1}$ 岡崎直観 1
1 東京工業大学 ${ }^{2} \mathrm{MBZUAI}$
\{ryuto.koike@nlp., okazaki@\}c.titech.ac.jp masahiro.kaneko@mbzuai.ac.ae
## 概要
大規模言語モデル (Large Language Model; LLM) は,剽窃や誤情報の流布など様々な場面での悪用が懸念されており,LLM の生成文と人間が書いた文を頑健に分類する LLM 生成検出の実現は急務である. LLM の出力は生成指示に大きく依存するが, どのような指示で LLM にテキストを生成させると検出性能が変動するかは検証されていない. 本研究では,文体や構造などの項目に着目し,指示による LLM の制約項目を変えることで検出器の頑健性の評価を行う。提案手法はサンプリングや言い換えによる頑健性評価と比較して, 検出性能の標準偏差を最大 14.4 ポイントに増加させた.
## 1 はじめに
LLM は様々な指示に従って人間と同程度に尤もらしい文を生成することが可能となった $[1,2]$. 一方でそのような LLM の優れた生成能力を利用して,学生が宿題の回答に LLM の返答をそのままコピペしてしまったり,フェイクニュースを生成するといった LLM の悪用の懸念も明るみになっている $[3,4]$. このような LLM の悪用を防ぐため,LLM による生成文と人間が書いた文を分類する LLM 検出器が最近多く提案され, 一定の有効性が示されている $[5,6,7,8,9]$.
ユーザが LLM に指示を与えて文を生成する場面に注目すると,その指示文に含める制約(例: 生成文のフォーマット,文長など)はユーザごとに異なる [10]. そのような指示文の書き方の違いは,LLM が生成する文の質に加え,様々な下流 NLP タスク性能にも大きな影響を与えることが報告されている $[11,12,13]$. 一方で,LLM 検出に関する研究は検出対象の文そのものに着目(例えば,LLM文の言語的特徴の調査 $[14,15,7,16]$ )することが多く,その文
がどのように生成されたかについては,注目されてこなかった. さらに,多くの LLM 検出ベンチマー クでは,この文生成時の指示文の多様性は考慮されず,一つの決まった書き方の指示文で生成文が構成される $[15,7,16]$. これらを踏まえると, LLM 文生成時の指示文の書き方は生成文の検出難易度に影響を与えるか?という疑問が生じる。
本研究では,LLM 文生成時の指示文に含まれる制約がその生成文に対する検出難易度に大きな影響を与えることを報告する.LLM 検出の需要があるドメインの 1 つとして学生によるエッセイ執筆を想定し,Koike ら [8] が作成した問題文に対して LLM を使いエッセイを生成する.LLM に与える指示文中の制約として,Ke ら [17] が定義したエッセイの質に寄与する各項目に対応させ,制約文を人手で作成する(表 1)。そして,指示文中の制約が LLM 検出に与える影響として,各制約文を加えた指示文による各 LLM 文セットに対し,検出性能の標準偏差を測定する(図 1 右)。この時,検出性能への影響を与えうる他要素である,LLM 文の複数回生成(図 1 左)と指示文の複数回言い換え(図 1 中央)による検出性能の標準偏差との比較を行う。
評価実験の結果,指示文の言い換えや LLM 文を複数回生成する場合に比べ,指示文中の制約が検出性能の標準偏差を著しく増加させ(F1 値で最大 14.4 ポイント),その影響は大きいことがわかった.また制約を含む指示文から生成された LLM 文に対する分析から,指示文中の制約に従うという LLM の高い能力が,LLM 検出性能へ大きな影響力を与えることが示唆された.
## 2 提案手法
本節では LLM 文生成時の指示文中に含まれる制約が検出難易度に与える影響の検証方法について説明する。
図 1 指示文中の制約による LLM 検出性能への影響の検証. 異なる制約を含む指示文によって生成された各 LLM 文セットに対する検出性能の標準偏差を測定する(Constraint)。そして,LLM 検出性能へ影響を与えるその他の要素である,LLM 文の複数回生成(Multiple)と指示文の言い換え(Paraphrase)によって生じる検出性能の標準偏差との比較を行う. 図中の Constraint の設定における Grm. やUsg. は表 1 のエッセイの質に寄与する各項目の略語である.
表 1 エッセイの質に寄与する各項目に対する制約文.
## 2.1 タスク設定
本研究で対象とするタスクは LLM 検出であり,具体的にはある 1 つのエッセイに対して LLM が生成したものか,人間が書いたものかを判定する。 LLM 検出性能の測定のためには,一般に人間が書いた文群と LLM が生成した文群を混ぜ合わせたものをテストデータに用いる. 我々は Koike ら [8] が作成したデータセットの一部である,エッセイ問題文と学生によるエッセイのペア群を利用する. そして,そのエッセイ問題文を元に LLM で生成したエッセイと学生によるエッセイを混ぜ合わせたものをテストデータとする。
## 2.2 制約による LLM 検出への影響の検証
図 2 に,LLM 文生成時の指示文中の制約が与える LLM 検出への影響の検証方法についての概要図を示す.指示文中に加える制約文について,Ke ら [17] が定義したエッセイの質に寄与する各項目に対する制約文を人手で作成する(表 1)。そして指示文中にそれぞれ異なる制約文を追加し,LLM を用いてエッセイを生成する.以下のように制約文は指示文中に挿入される.
Given the following problem statement, please write an essay in [n] words.
[constraint]
Problem statement:
[problem_statement]
Essay:
ここで [n] はエッセイ問題文に紐づく人間エッセイ文の単語数であり,[constraint] は制約文, [problem_statement] はエッセイ問題文である. 次に,異なる制約文を含む指示文から生成された各 LLM エッセイ文群と,事前に用意された学生によ
図 2 LLM 文生成時の指示文中の制約が与える LLM 検出への影響.異なる制約文を含む指示文から生成された LLM 文はその検出難易度に大きな変動が生じる。
るエッセイと混ぜ合わせ,LLM 検出器による分類を行う.最後に,それらの検出性能の標準偏差を制約による LLM 検出への影響と定義する.
## 3 実験
## 3.1 実験設定
エッセイ生成モデル指示を与えてエッセイを生成させるモデルには, 広く使われているLLMである ChatGPT(gpt-3.5-turbo-0613)と GPT-4(gpt-4-0613) を利用した. エッセイ生成時の温度パラメータは ChatGPT には 1.3, GPT-4 には 1.0 を適用した。
評価指標・データセット評価実験にて対象とする全て LLM 検出器は 1 つの文に対して 2 值ラベルを生成する. そのため, LLM 検出の評価指標として 2 値分類タスクで一般に用いられている F1 值を採用する。評価セットとして, Koike ら [8]が作成したエッセイ問題文と学生が書いたエッセイのペア群を利用する. エッセイ問題文に対して LLM が生成したエッセイ 500 文と学生が書いたエッセイ 500 文をランダムシャッフルしたデータセットに対して LLM 検出器の性能を測定した.
LLM 検出器本実験で対象とする LLM 検出器は,学習済み分類器として HC3 ChatGPT detector ${ }^{1)}$ と ArguGPT ${ }^{2)}$, 加えて In-Context Learning (ICL) [18] を用いた検出手法 $\left.{ }^{3}\right)$ である. HC3 detector は,様々なドメインにおける ChatGPT による生成文を検出
するために作成された $\mathrm{HC3}$ データセットを用いて学習された RoBERTa ベースの検出器である [7]. ArguGPT は,LLM が生成したエッセイを検出するために学習された RoBERTa ベースの検出器である [16]. 上記の検出器の学習データセットは, どちらも LLM 生成時の指示文の多様性を考慮せずに作成されている. ICL 検出手法は,学習セットから検索した人間文と LLM 文に正解ラベルを付けて,検出器としての LLM の few-shot 事例とし検出を行う. Koike ら [8] に倣った ICL 検出手法における詳細は,付録 $\mathrm{A}$ に記載する。
LLM 検出に影響を与える要素評価実験では,指示文中の制約 (Constraint) 以外に LLM 検出に影響を与える要素として,LLM 文の複数回生成 (Multiple) や指示文の複数回言い換え(Paraphrase)を比較対象とする. Constraint設定では,指示文に制約を加えない場合と指示文に 11 個の各制約文を加えた場合の計 12 個の場合において LLM でエッセイを生成し, 12 個の LLM 文セットを作成する. Multiple 設定では,制約を含まない各指示文からそれぞれ 12 個の LLM 文を生成4) することで,12 個の LLM 文セットを作成する. Paraphrase 設定では,指示文に対して LLM で 12 個の言い換えを生成5)する。次に,それぞれの言い換えられた指示文によって LLM にエッセイを生成させることで,12 個の LLM 文セットを作成する。指示文の言い換えに関する詳細は付録 A に記載する。
表 23 つの設定(Multiple ・ Paraphrase ・ Constraint)において ChatGPT と GPT-4 それぞれが生成したエッセイに対する検出性能(F1 值)の標準偏差(\%)の比較.
表 3 3つの設定(Multiple ・ Paraphrase ・ Constraint)において,Davinci-002 が生成したエッセイに対する検出性能 (F1 値)の標準偏差(\%).
## 3.2 実験結果
評価実験では,指示文中の制約が LLM 検出に与える影響を検証するために,指示文から複数回 LLM 文を生成する設定(Multiple)と指示文を複数回言い換えてから LLM 文を生成する設定(Paraphrase)が引き起こす LLM 検出への影響との比較を行う.表 2 に, ChatGPT と GPT-4 がそれぞれの設定 (Multiple・ Paraphrase ・Constraint)で生成したエッセイにおける検出性能の標準偏差の比較の結果を示す. エッセイ生成モデル,LLM 検出器の全ての組み合わせにおいて, Constraint 設定における検出性能の標準偏差が他の設定よりも大きく,最大で $\mathrm{F} 1$ 值で 14.4 ポイントに達した.したがって指示文中の制約の違いは,LLM 文を複数回生成したり,指示文を言い換えするよりも LLM 検出に対して顕著に影響力を持つと示唆される。また,その構築時に指示文の多様性が考慮されていないベンチマークデータセットで学習された $\mathrm{HC} 3$ detector と ArguGPT は, どちらも指示文中の制約の違いによって検出性能が大きく変動していることがわかる。一方で,その手法の特性上,幅広い表現を事例として考慮しうる ICLでは,指示文中の制約の違いによる生成文の表現の違いに対応でき,その検出性能の変動が比較的小さくなったと考えられる。
## 4 分析
本節では制約による LLM 検出への影響は,エッセイ生成器である LLM が持つ指示文中の制約に従
表 4 制約を含む指示文から ChatGPT・GPT-4, Davinci-002 が生成した文は実際にその制約に従っているか.
う能力に起因するという仮説をおき,議論する.表 3 に,明示的に指示文に従うように学習されていないDavinci-0026)(GPT-3)を用いてエッセイを生成させ,3つの設定における検出性能の標準偏差を測定した結果を示す.
Davinci-002 がエッセイ生成器の場合,指示文に制約を加えた場合の検出性能の標準偏差は小さく, 制約が持つ LLM 検出への影響は小さいことがわかる. この原因として Davinci-002 は ChatGPT や GPT-4 と比べ指示文中の制約に従う能力が低く, 生成文の変化が小さいことが予想される。.この指示文中の制約に従う能力をモデルごとに確認するため, 近年様々な NLP タスクにおける評価器として一定の有効性が認められている [19] GPT-4 を用いた検証を行った. 具体的には,各項目の制約を含む指示文による LLM 文 45 文ずつ計 495 文に対して,エッセイ問題文は同様だが制約を含まない指示文による LLM 文との比較を行い,よりその項目に従った文かを GPT-4 に判定させた. ChatGPT と GPT-4 についてはそれぞれが生成した文からランダムに選択した。
表 4 にその結果を示す. ChatGPT・GPT-4 における88\%の一致率に比べ,Davinci-002においてはランダムに選択した場合の $50 \%$ と同程度の値となった. このことから, ChatGPT や GPT-4 は Davinci-002 に比べ指示文中の制約により従った文生成が可能であり,それが検出性能への大きな変動につながったことが示唆される.
## 5 おわりに
本研究では LLM 文生成時の指示文中に含まれる制約の違いによって,その生成文の検出難易度が大きく変動することを報告した.また分析の結果,文生成時の LLM による制約に従う能力が高いほど,指示文中の制約の違いによる検出性能のより大きな変動につながることが示唆された。今後ますます性能向上が期待される LLM においては,制約が持つ LLM 検出への影響はより大きくなりうる.そのため,指示文中の制約の違いによって生じる生成文の変化にも頑健な LLM 検出手法が求められる.
## 謝辞
本研究成果は, 国立研究開発法人情報通信研究機
構 (NICT) の委託研究 (22501) により得られたものです.
## 参考文献
[1] OpenAI. Introducing ChatGPT, 2023. Accessed on 202305-10.
[2] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and fine-tuned chat models, 2023.
[3] Ruixiang Tang, Yu-Neng Chuang, and Xia Hu. The science of detecting llm-generated texts, 2023.
[4] Junchao Wu, Shu Yang, Runzhe Zhan, Yulin Yuan, Derek F. Wong, and Lidia S. Chao. A survey on llmgenerated text detection: Necessity, methods, and future directions, 2023.
[5] John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, and Tom Goldstein. A Watermark for Large Language Models, 2023.
[6] Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning, and Chelsea Finn. DetectGPT: ZeroShot Machine-Generated Text Detection using Probability Curvature, 2023.
[7] Biyang Guo, Xin Zhang, Ziyuan Wang, Minqi Jiang, Jinran Nie, Yuxuan Ding, Jianwei Yue, and Yupeng Wu. How close is chatgpt to human experts? comparison corpus, evaluation, and detection, 2023.
[8] Ryuto Koike, Masahiro Kaneko, and Naoaki Okazaki. OUTFOX: LLM-generated Essay Detection through Incontext Learning with Adversarially Generated Examples, 2023.
[9] Jinyan Su, Terry Yue Zhuo, Di Wang, and Preslav Nakov. Detectllm: Leveraging log rank information for zero-shot detection of machine-generated text, 2023.
[10] OpenAI. Prompt engineering guide, 2023. Accessed: 2023-10-10.
[11] Zhengbao Jiang, Frank F. Xu, Jun Araki, and Graham Neubig. How can we know what language models know?, 2020.
[12] Biao Zhang, Barry Haddow, and Alexandra Birch. Prompting large language model for machine translation: A case study, 2023.
[13] Yutao Feng, Jipeng Qiang, Yun Li, Yunhao Yuan, and Yi Zhu. Sentence simplification via large language models, 2023.
[14] Sandra Mitrović, Davide Andreoletti, and Omran Ayoub. Chatgpt or human? detect and explain. explaining decisions of machine learning model for detecting short chatgpt-generated text, 2023.
[15] Yafu Li, Qintong Li, Leyang Cui, Wei Bi, Longyue Wang, Linyi Yang, Shuming Shi, and Yue Zhang. Deepfake text detection in the wild, 2023.
[16] Yikang Liu, Ziyin Zhang, Wanyang Zhang, Shisen Yue,
Xiaojing Zhao, Xinyuan Cheng, Yiwen Zhang, and Hai Hu. Argugpt: evaluating, understanding and identifying argumentative essays generated by gpt models, 2023 .
[17] Zixuan Ke and Vincent Ng. Automated Essay Scoring: A Survey of the State of the Art. In Sarit Kraus, editor, Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI 2019, Macao, China, August 10-16, 2019, pp. 6300-6308. ijcai.org, 2019.
[18] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners, 2020.
[19] Yang Liu, Dan Iter, Yichong Xu, Shuohang Wang, Ruochen $\mathrm{Xu}$, and Chenguang Zhu. G-eval: Nlg evaluation using gpt-4 with better human alignment, 2023.
Please compose a [n]-word essay based on the provided problem statement.
I kindly request you to compose an essay that adheres to the given problem statement, ensuring that it contains [n] words.
Could you kindly compose an essay containing [n] words based on the provided problem statement?
Please compose an essay of [n] words based on the given prompt.
Please compose an essay with a word count of [n], based on the provided problem statement.
Please compose an essay consisting of [n] words based on the provided problem statement.
I kindly request you to compose an essay with [n] words, based on the subsequent problem statement.
I kindly request you to compose an [n]-word essay based on the aforementioned problem statement.
Please compose an essay of [n] words based on the provided problem statement.
I am requesting an essay to be written in [n] words using the provided problem statement.
Please compose an essay in which you discuss the given problem statement, utilizing [n] to express your thoughts.
I kindly request you to compose an essay consisting of [n] words, using the problem statement provided below.
表 5 Paraphrase 設定において言い換えられた 12 個の指示文.
## A 実験設定の詳細
ICL 検出手法本研究では Koike ら [8] に倣い, ICL 手法では検出器に ChatGPT (gpt-3.5-turbo-0613) を利用する.そして,検出対象の文に紐づくエッセイ問題文と意味的に近いエッセイ問題文から生成された 5 つの LLM エッセイ文と人間エッセイ文のペアを学習セットから検索し, few-shot 事例とする。 ここで,検出対象のエッセイ生成モデルの種類に関係なく, ChatGPT (gpt-3.5-turbo-0613) によるエッセイ群から few-shot 事例を取得した。また学習セットは, Koike ら [8] が作成した 14400 個のエッセイ問題文,人間エッセイ文,LLM エッセイ文の 3 つ組から構成される。
Paraphrase 設定での指示文の言い換え以下に, Paraphrase 設定において言い換えられた後の指示文を示す。
[paraphrased_instruction]
Problem statement:
[problem_statement]
Essay:
ここで [paraphrased_instruction]は,元々の指示文中の "Given the following problem statement, please write an essay in [n] words.”を言い換えた文である.表 5 に,本研究の Paraphrase 設定における言い換えられた 12 個の [paraphrased_instruction]を示す. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A4-5.pdf | # 語鲁置換継続事前学習による日英バイリンガルモデルの構築と評価
麻場直喜 野崎雄太 中島大 佐藤諒 池田純一 伊藤真也 近藤宏 小川武士 坂井昭一朗 川村晋太郎株式会社リコー デジタル戦略部 デジタル技術開発センター 言語 AI 開発室
\{naoki.asaba, yuta.nozaki1, dai.nakashima, ryo. sato4, j-ikeda, shinya. itoh, hiroshi.xx. kondoh, takeshi. t. ogawa, shohichiroh. sakai, shintaro. kawamura\}@jp. ricoh.com
## 概要
ニューラルベースの LLM (Large Language Model) は,大量の英語データで事前学習が行われることが多い。これに英語以外の言語データで継続事前学習を行うことで,比較的少量の資源でその言語の高い性能を得ることが期待される。本稿では,オープンな LLM である事前学習済み Llama 2 13B Chat に対して日英 2 言語データで語彙置換継続事前学習を行い, LLM ベンチマーク 2 種で性能評価した結果について報告する.トークナイザは語彙置換により日英 2 言語に適応させ, カリキュラム学習により言語間の知識転移と学習効率化を図った. ベンチマーク結果より,日本語性能の向上を確認した.
## 1 はじめに
近年盛んに開発されている LLM の事前学習には大量の学習データが必要であり, 豊富な言語資源を有する英語データが主に用いられることが多い。一方で特定の言語能力に特化した LLM,例えば日本語 LLM を開発する場合,単純には大量の日本語デ一夕を用いて事前学習を行う方法が考えられ,その方法で我々は昨年 $6 \mathrm{~B}$ パラメータの日本語 LLM を開発している[1]. しかし,英語と比べて日本語の言語資源は少ないため, 日本語データのみを用いて英語 LLM と同等の言語処理能力を持たせることは難しい。そこで日本語データだけでなく日本語と英語の 2 言語データで事前学習を行うことで, 言語の普遍的な特性や知識を英語データからも学習させつつ,それらの能力を日本語処理性能へと転移させる言語間知識転移が期待できる[2]. また, 主に英語データで事前学習が行われた LLM に対して他の言語データで継続事前学習を行うことでも知識転移が期待できる[3]. 日本語適応の事例として,主に英語データで事前学習が行われたオープンな LLM で
ある Llama 2[4]に対して日本語データで継続事前学習を行った ELYZA-japanese-Llama-2-13b[5]は, Llama 2 の事前学習において日本語学習データが少なかったことを補いつつ,優れた英語能力を日本語能力に転移させていると考えられる。一方で, Llama 2 はトークナイザが主に英語に特化しており, 日本語をトークナイズすると 1 トークンが平均 1 文字未満になるため, 日本語は英語に比べて学習コストや推論コストが高く, 一度に入出力可能な文章も少ないという課題がある。この対策として Llama 2 に対してトークナイザに日本語語彙を追加して継続事前学習を行った Swallow-13B[6]や ELYZA-japanese-Llama-2-13b-fast[5]がある。また,我々は元の語彙数を変えずに語彙を置換して継続事前学習を行う語彙置換継続事前学習を提案している [7]. これらの手法により日本語での学習・推論コストと入出力長を最適化することが可能である.
本稿では, 事前学習済み Llama 2 13B Chat に対して日英 2 言語データを用いてトークナイザを日英 2 言語に適応させた上で, 日英 2 言語の学習データで語彙置換継続事前学習を行い, LLM ゙ンンチマーク 2 種で性能評価した結果について報告する。構築した日英 2 言語 LLM を以後 Ricoh-13B と表記する.
## 2 モデル構築
## 2.1 モデル設計
本稿で報告する Ricoh-13B は Transformer[8]の decoder に特化した自己回帰言語モデルであり,アー キテクチャ及びモデル初期重みには Meta 社の事前学習済み Llama 2 13B Chat[4]を採用した。表 1 に主なアーキテクチャ仕様を示す。
トークナイザは,語彙数に関する我々の関連研究 [9]を元に,Llama 2 のトークナイザに対して前述の語彙置換継続事前学習の語彙置換を適用して, 低頻
度語彙を日本語語彙に置換した。置換先の語彙は Llama 2 と同じ仕様で SentencePiecei ${ }^{\mathrm{ii}}[10] を$ 用いて BPE を構築して作成し, その学習データには日英 2 言語データを用いた. これにより主な英語性能は維持しつつ日本語への適応及び知識転移を図る. 表 2 に Llama 2 と Ricoh-13B の語彙数の内訳と LPT (Length per Token: 文字列をトークナイズしたときの 1 トークンあたりの平均文字数) を示す. 日本語の語彙が大幅に増加し, 逆に英語の語彙が減少している.これにより日本語の LPT が約 2 倍となり, 日本語の学習及び推論の速度向上と, 入出力可能な日本語文字数の増大を実現している。
## 2.2 学習データとカリキュラム
Ricoh-13B の学習データは日英 2 言語の公開デー 夕とし, 日本語は我々が昨年開発した $6 \mathrm{~B}$ パラメー 夕の日本語 LLM[1]と同様に Wikipedia (ja), CC100 (ja), OSCAR (ja), mC4 (ja), 英語は RedPajama デー
C4 を用いた. 学習順序には, カリキュラム学習に関する我々の関連研究[12] と同様に下記カリキュラム学習 2 種を採用した. 具体的な学習データの学習順序と日英データ量の比率を図 1 に示す.
データ品質一般にデータの品質と量にはトレ ードオフの関係があり, 高品質なデータを大量に用意することは難しい,そこでデータ品質に応じた学習順序を設定する.具体的には,学習の序盤は少量の高品質データを学習して学習の安定化を図る.中盤は大量の低品質データを学習して知識獲得を図る。終盤は再度少量高品質データを学習して高品質なテキストの生成に適応させる。
言語間データ比率 Llama 2 13B Chatがもつ英語知識の日本語への転移と, 継続事前学習の安定化を図るために,学習の前半は英語データの比率を高くする. 学習の後半は逆に日本語データの比率を高くすることで,日本語の生成性能の向上を図る.
## 2.3 学習の詳細設定
Ricoh-13B の学習には Amazon EC2 Trn1 インスタンス (trn1.32xlarge) 64 ノードを用いた。学習フレー
ii https://github.com/google/sentencepiece
https://huggingface.co/datasets/togethercomputer/RedPajamaData-1T表 1 Ricoh-13B の主なアーキテクチャ仕様
表 2 トークナイザ語彙数の内訳と LPT の比較
ムワークは Amazon Web Services, Inc.が公開している AWS Neuron Reference for NeMo Megatron $の$ Llama 2 学習コードサンプルivをべースとした. AWS Neuron SDKv゚バージョンは 2.14 を用いた。
表 3 に,Ricoh-13B の学習における主なハイパー パラメータを示す. バッチサイズは Llama 2 と同様に $4 \mathrm{M}$ トークンとした。学習率は複数条件で予備実験を行い,Lossのスパイクが少ない $8.0 \times 10^{-5}$ を採用した。カリキュラム学習における学習データ切り替えの際は都度学習率ウォームアップを実施して学習の安定化を図った。
## 3 評価
2 節で述べた学習を行った Ricoh-13B に対して下流タスク性能の評価を行った。
## 3.1 評価方法
本評価においては公開評価データセットとベンチマークツール 2 種を用いた自動評価を実施した。具体的には, $1 \mathrm{~lm}$-jp-eval vir゙日本語の性能を, $1 \mathrm{~m}$ evaluation-harness ${ }^{\text {vii }}$ で英語の性能を評価した。評価の一貫性を確保するため,評価条件や推論動作パラメータのほとんどは各ベンチマークツールのデフォルト設定を採用した.
図 1 Ricoh-13B のカリキュラム学習における各学習データの順序と日英データ量の比率. ブロック矢印のように図の左から右の方向に学習が進み, ブロック矢印の太さや長さがデータ量の大小関係の概要を示す.
IIm-jp-eval LLM 勉強会(LLM-jp)によって開発された LLM 向けの日本語自動評価ツールである. ツールのバージョンは 1.0 .0 を用いた。本評価では llm-jp-eval リーダーボードviiiに準拠して, 各評価夕スクのスコアの他に MC (Multi-Choice QA), NLI (Natural Language Inference), QA (Question Answering), RC (Reading Comprehension)の 4 つのカテゴリ別平均スコア及びそれらの平均スコアを算出した. 主な推論制御パラメータを表 4 に示す. 比較対象モデルはベースの Llama 2 13B 及び Llama 2 13B Chat と, 公開されている日本語 LLM のうち 13B パラメータかつトークナイザを日本語適応している事前学習モデル 5 種とした.
Im-evaluation-harness EleutherAI によって開発された LLM 向けの英語自動評価ツールである. ツールのバージョンは 0.4 .0 を用いた。評価タスクは GLUE Leaderboard ${ }^{\mathrm{ix}}$ 及び Hugging Face Open LLM Leaderboard“の評価タスクのうち, 本ツールが対応している8タスク及び6タスクとした. 推論制御パラメータの Few Shot 数を表 5 に示す. 比較対象モデルはベースの Llama 2 13B 及びLlama 2 13B Chat と, Llama 2 に対してトークナイザを日本語適応した上で継続事前学習を行った Swallow-13B 及び ELYZAjapanese-Llama-2-13b-fast とした.
## 3.2 評価結果と考察
表 6 に llm-jp-eval を用いた日本語ベンチマーク結果を示す. ベースの Llama 2 と比較すると, 我々の Ricoh-13B は Avg.スコアにおいて8〜9ポイント向
viii https://wandb.ai/llm-ip-eval/test-eval/reports/1lm-ip-eval--Vmlldzo1NzE0NjA1?accessToken=s09hm7xrqg431s8i25am6t 0r7iwjpninwzeelqqgbx53zivlm9s04ixfpv3xgiwm
ix https://gluebenchmark.com/leaderboard表 3 Ricoh-13B の学習における主なハイパーパラメ一夕
表 4 llm-jp-eval での推論制御パラメータ
表 $5 \mathrm{~lm}$-evaluation-harness での Few Shot 数
https://huggingface.co/spaces/HuggingFaceH4/open $11 \mathrm{~m}$ leade rboard
表 $6 \mathrm{llm}$-jp-eval 日本語ベンチマーク結果. スコアは\%表記. 9 種の評価タスクスコアの他, MC, NLI, QA, RC はそれらの評価カテゴリ別平均スコアを,Avg.はそれら評価カテゴリ別平均スコア 4 種の平均スコアを示す.Avg.に含まれないJSTS 評価スコアは付録A の表 8 に添付する. Stockmark-13B において本ツールでは意図した形式の生成文が得られないタスクがあったため,当該タスクは評価対象外とした.
& & & & & & & & \\
上し, 評価カテゴリ別平均スコアにおいても全て向上している。これは英語を主とする Llama 2 に対して日本語適応の語彙置換継続事前学習を行うことで,日本語性能を向上できていると考えられる. 日本語 LLM 各種と比較すると, Avg.スコアにおいて我々の Ricoh-13B が最も高いスコアであった。評価カテゴリ別平均スコアや各評価タスクスコアにおいては Swallow-13B や ELYZA-japanese-Llama-2-13b-fast $と$比べて大小それぞれあるがおおむね同水準である。一方で, ELYZA-japanese-Llama-2-13b-fast は LLM $の$指示追従性能や対話応答性能を図るための評価デー タセット ELYZA Tasks 100 において高いスコアが報告されている[5]. 本評価で用いたベンチマークツー ルは複数の評価データセットでの評価を一括して実行することができるが, LLM の評価としてはより多面的な評価を実施することが望ましい。本評価ではあくまで LLM の性能の一部を評価しているという点に留意が必要であり, さらなる多面的な評価が今後の課題である.
表 7 に $1 \mathrm{~m}$-evaluation-harness を用いた英語ベンチマーク結果を示す.ベースの Llama 2 と比較すると, ELYZA-japanese-Llama-2-13b-fast は同程度だが, Swallow-13B や Ricoh-13B はスコアが低下した.これは日本語を中心とした継続事前学習を行ったことで英語の忘却が起きていると考えられる. 日本語をより多く学習することで英語をより忘却することは自然であるため, 学習データが比較的少ない ELYZA-japanese-Llama-2-13b-fast のスコアが高く,学習データの多い Swallow-13B や Ricoh-13B のスコ表 7 lm-evaluation-harness 英語ベンチマーク結果. スコアは\%表記. 各タスクのスコアは付録 A の表 9 と表 10 に添付する.
& \\
Llama 2 13B Chat & 64.1 & $\mathbf{5 7 . 9}$ \\
Swallow-13B & 60.1 & 52.3 \\
ELYZA-japanese- & $\mathbf{6 5 . 3}$ & 55.7 \\
Llama-2-13b-fast & 62.1 & 51.9 \\
Ricoh-13B (ours) & & \\
アが低いのは自然な結果であると考えられる.多言語モデルとしての言語間の最適な学習データの比率や量は今後の課題である.
## 4 おわりに
本稿では,オープンな LLM である事前学習済み Llama 2 13B Chat に対して日英 2 言語データで語彙置換継続事前学習を行い, LLM ベンチマーク 2 種で性能評価した結果について報告した. ベンチマーク結果より, 英語を主とする Llama 2 に対して日本語適応の語彙置換継続事前学習を行うことで, 日本語性能を向上できることを確認した。
今後の展望としては, 本稿で報告した Ricoh-13B に対して Instruction tuning や Alignment tuning を行い,様々なユースケースに応じた LLM 群の構築を目指す. また,より大規模な 70B パラメータモデルの語彙置換継続事前学習に取り組む予定である.
## 謝辞
本研究のモデル構築にあたり, アマゾンウェブサービスジャパン合同会社の AWS LLM 開発支援プログラムによる支援を頂きました。感謝いたします.
## 参考文献
[1] 麻場直喜, 梅沢知紀, 川村晋太郎. 日本語に特化した 60 億パラメータ規模の GPT モデルの構築と評価. 言語処理学会第 29 回年次大会, 2023.
[2] Fred Philippy, Siwen Guo1 and Shohreh Haddadan. Towards a Common Understanding of Contributing Factors for Cross-Lingual Transfer in Multilingual Language Models: A Review. arXiv preprint arXiv: 2305.16768, 2023
[3] Ramon Pires, Hugo Abonizio, Thales Sales Almeida, and Rodrigo Nogueira. Sabiá: Portuguese Large Language Models. arXiv preprint arXiv: 2304.07880, 2023
[4] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, Thomas Scialom. Llama 2: Open Foundation and Fine-Tuned Chat Models. arXiv preprint arXiv:2307.09288, 2023.
[5] 130 億パラメータの「Llama 2」をベースとした日本語 LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可) https://note.com/elyza/n/n5d42686b60b7, 2023.
[6] Swallow: LLaMA-2 日本語継続事前学習モデル. https://zenn.dev/tokyotech_lm/articles/d6cb3a8fdfc 907, 2023
[7] 野崎雄太, 中島大, 佐藤諒, 伊藤真也, 近藤宏,麻場直喜, 川村晋太郎. 大規模言語モデルに対する語彙置換継続事前学習の有効性の検証. 言語処理学会第 30 回年次大会, 2024 .
[8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017.
[9] 中島大,野崎雄太,佐藤諒,麻場直喜,川村晋太郎. BPE を用いたトークナイザーの性能に対する,言語・語彙数・データセットの影響. 言語処理学会第 30 回年次大会, 2024.
[10] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018.
[11] Together Computer. RedPajama: An Open Source Recipe to Reproduce LLaMA training dataset. https://github.com/togethercomputer/RedPajamaData, 2023.
[12] 佐藤諒,麻場直喜,野崎雄太,中島大,川村晋太郎.事前学習済み Llama2 モデルを活用した言語間転移日英モデルの作成. 言語処理学会第 30 回年次大会, 2024.
## A 付録
表 9 lm-evaluation-harness による英語ベンチマークのタスク別スコア:GLUE
表 $10 \mathrm{~lm}$-evaluation-harness による英語ベンチマークのタスク別スコア : Hugging Face Open LLM Leaderboard
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A5-1.pdf | # GPT for Extraction of Biomedical Fields from Clinical Study Texts
Ryan Andrew, Mari Itoh, Masataka Kuroda, Hiroya Takamura, Yayoi Natsume-Kitatani
takamura.hiroya@aist.go.jp
\{natsume, m-kuroda, mari, ite001392ryan\}@nibiohn.go.jp
}
\begin{abstract}
Generative transformer models are powerful tools used in a wide variety of natural language processing applications. One area in which the application of generative pre-trained transformers (GPT) hold great potential in the field of biomedical research is automated data curation. In this study, we utilized GPTs to systematically extract structured data from scientific articles within PubMed and ClinicalTrials.gov. In our research we used OpenAI's GPT-3 and GPT-4 language models to efficiently populate text fields that have been pre-selected by domain experts in the corresponding biomedical fields and present the outcomes in JSON format. Initial findings suggest that generative transformers such as GPT-3 and GPT-4 hold promise as potent tools for automating data curation in the biomedical domain.
\end{abstract
## 1 Introduction
Scientific papers and databases contain a wealth of knowledge obtained through research to date, and there are high expectations for their utilization for further research activities. However, while information in these resources is described in natural language, data structuring is often required for its utilization. Furthermore, in the case of texts with highly specialized content, such as academic papers, it is difficult for a person who is not an expert in the field to properly extract the necessary knowledge from the text, and the hurdle for manual processing is high. Therefore, there is a high demand for easy and accurate structured data creation from text (defined as data curation in this paper). With this background, the authors have developed a web-based application, BiomedCurator [1], which combines technologies in the field of natural language processing (named entity recognition, entity linking, relation extraction, and text classification). Although BiomedCurator is able to extract information with an accuracy equivalent to SOTA, it is not very versatile because the annotation data used for training covered only the specific field of expertise.
On the other hand, recent rapid progress in LLMs has made it possible to realize data curation by using LLMs, and the fact that the use of LLMs for data curation eliminates the need to create annotation data is a significant advantage. Therefore, in this study, we studied and optimized prompts to properly implement data curation using OpenAI's GPT language models, and evaluated their performance.
## 2 Methods
## 2.1 Prompt Engineering
The focal point of this research is the extraction of fields of interest using a generative transformer model for the purposes of biomedical data curation. The main techniques used in extracting these fields are prompt engineering, providing sample responses and inputs, and specifying the appropriate output format. Each of these was essential in both extracting the appropriate data as well as returning it in a configuration that could easily be transferred to a database.
The prompt engineering phase consisted primarily of providing basic instructions to the model along with a list of fields to be extracted and their corresponding descriptions. Once this was completed, adjustments were made to both the instructions and field descriptions to improve the model's performance.
Some of the less self-explanatory fields contained sample outputs in addition to or in place of field descriptions in order to provide the model with more information to extract the desired data. Additionally, each of the model self-evaluation scores (further explained in Section 2.2) contained sample inputs along
with the expected evaluation to demonstrate how inputs should be evaluated.
The final piece of prompt engineering was specifying the response format. In order to minimize the amount of preprocessing and formatting that would be required to handle the text responses received from the GPT models, the decision was made to have the outputs formatted in JSON. Additionally, in order to avoid unnecessarily verbose responses - particularly for the fields that can be summed up in a couple of words - the model was instructed to make its response as short as possible. Lastly, in order to mitigate unhelpful formatting patterns that would make dealing with the data more difficult, the model was instructed not to create any nested objects in its JSON response.
Figure 1: Base prompt used for data extraction
Figure 2: Sample data field descriptions provided to the GPT models
## 2.2 Model Self-Evaluation
Though the primary focus of this research is automated data extraction and curation, a secondary goal was established to assess the capabilities of OpenAI's GPT models in judging the similarity of its own responses compared to human-labeled truth data. If successful, this could lead to a streamlined approach to data curation in the future wherein the need to rely on humans for evaluating AI-extracted data is greatly reduced. Unto this end, a self-evaluation system was implemented which consists of the following labels that were used to score text similarity: "Different,"
"Match," and "Near Match." Sample inputs and appropriate labels were provided to the model to demonstrate the expected output for each label, and a small subset of the self-evaluations were evaluated by a human to determine the efficacy of the self-evaluation metric.
## 2.3 Word Mover's Distance
The primary metric used to gauge response similarity was Word Mover's Distance (WMD). "The WMD distance measures the dissimilarity between two text documents as the minimum amount of distance that the embedded words of one document need to 'travel' to reach the embedded words of another document" [2]. It is designed to measure the similarity between two texts based on semantic similarity, utilizing Word2Vec embeddings, rather than strictly overlap-ping vocabulary. The Gensim library was used to generate Word2Vec embeddings based on the text corpus.
With the WMD metric, a lower score indicates higher text similarity and a higher score indicates a higher degree of dissimilarity. The lowest score that can be assigned is zero, which indicates that the responses are identical, but there is no upper limit on the score, and in some cases a score of infinity is calculated which represents zero overlap in the texts.
WMD is particularly useful for evaluating GPT-derived responses compared to human responses, because human-annotated data often uses labels and terminology inferred from the text rather than extracted directly from it, whereas LLMs such as GPT-3 typically do not stray far from the language used in source texts when offering summaries or answering questions posed by the user. In order to effectively evaluate the similarity between these responses something beyond a surface level metric is necessary. Additional metrics used to evaluate response similarity were ROUGE-L, BLEU, and METEOR.
## 3 Experiments and Results
We conducted experiments on the dataset used in the BiomedCurator project (Sohrab, Mohammad Golam, et al.). We used GPT-3.5 and GPT-4 by OpenAI. In the following, we describe the results of our experiments.
## 3.1 Self-Evaluation Results
The following trends were observed in the human evaluation of the GPT models' self-evaluation scores. 1. When the ground truth contains some in-formation but the output of GPT is N/A: The result of self-evaluation tends to be "Match" in GPT-3 and "Different" in GPT-4.
2. In the case where the years are different but the numbers themselves are similar, such as 2012 and 2013 , it is difficult to be judged as "Different".
3. When there is a difference in the amount of information between the GPT output and the ground truth, GPT-4 tends to output Near Match, while GPT-3 rarely judges Near Match and almost always outputs Match or Different.
4. GPT-4 is closer to human judgment when it comes to self-evaluation.
In addition, many of the fields from which GPT failed to extract knowledge correctly are ambiguously defined, and it is not easy even for humans to judge what to output.
Table 1: Sample responses (GPT-3) compared to human-labeled data. The examples demonstrated here show instances where the model exhibited decent performance on extracting the targeted fields.
& \\
Table 2: Sample responses (GPT-3) compared to human-labeled data. The examples demonstrated here show instances where the model exhibited decent performance on extracting the targeted fields.
## 3.2 WMD and Other Metrics
Of the data fields that were extracted in this experiment, a subset was selected which best demonstrates GPT's strengths and shortcomings on the selected task and dataset. Out of the sample papers analyzed for this paper, many contained values that were left empty or N/A by annotators. The selected fields were chosen to minimize the number of N/A values in the human-annotated fields so as to best illustrate the models' capabilities. The fields that contain a value in the form \# / \# under the WMD column are fields for which all of the assigned WMD scores were either zero (identical responses) or infinity (completely dissimilar responses) and for which the median and average was deemed not to be useful. For these fields the number before the slash indicates the number of zero-assigned scores, and the number following the slash indicates the number of infinity scores (i.e. zero/infinity).
Table 3: Median Scores for GPT-3
Table 4: Score Averages for GPT-3
Table 5: Median Scores for GPT-4
Table 6: Score Averages for GPT-4
## 4 Discussion
## 4.1 Model Performance
Overall, GPT-4 appears to outperform GPT-3 on the task of data extraction and summarization. The fields where this can most clearly be seen are the author conclusion and evidence statement fields. The average WMD scores for the author conclusion are 1.1911 and 0.0908 for GPT-3 and GPT-4 respectively, and the average METEOR scores are 0.0946 and 0.7236 . For the evidence statement field, the average WMD scores are 1.1174 and 1.0454 , and the average METEOR scores are 0.0490 and 0.4117 for GPT-3 and GPT-4 respectively. GPT-4's improved performance over GPT-3 in these fields demonstrates significant promise for its use in summarizing more complex data, as these fields are among the most complex in terms of text content and annotation difficulty, as most of the content is inferred rather than lifted verbatim from the text.
Additionally, other areas such as the Title and Year proved trivially easy for both models, with each of them scoring highly on the ROUGE-L F-measure metric and mostly zeros on the adjusted WMD metric.
## 4.2 Difficulties and Obstacles
One of the difficult parts of evaluating each model's performance on the task of data extraction and summarization is that none of the metrics alone paints a complete picture. WMD's most glaring shortcoming is that it is unable to accurately compare numerical values by default. Additional code was needed to assign an appropriate score of zero to identical responses that consisted of only numerical values. The same shortcoming is present in the METEOR and BLEU metrics as well. This poses a potential problem as many of the data fields of interest contain numerical values. Though measures can be taken to compensate for this by overriding incorrectly assigned scores in the case of simple float to float or integer to integer comparisons, it is more difficult when the numbers are embedded in a longer text response.
Another issue with the WMD metric is that it defaults to assigning a score of infinity (indicating no response similarity) between two N/A responses when they should in fact be considered identical responses. The GPT models (primarily GPT-3) also had difficulty with the self-evaluation task when it came to comparing N/A values. With WMD however, it is fairly trivial to override the incorrect assignment of an infinity scoring by performing a simple string comparison and assigning a score of zero if both responses are N/A.
## 4.3 Conclusions and Future Work
As a method for helping to automate the task of data curation for biomedical applications, LLMs show promise, but there is still much work to do before the can be considered reliable enough to utilize without human supervision. In future research, other techniques such as transfer learning and further prompt tuning may help to improve performance. Additionally, future work remains to be done on other GPT models such as Meta AI's LLaMA that do not rely on third-party servers to use, as much data in the biomedical field is sensitive. With continuous improvements however, LLMs could save researchers valuable time and be an invaluable resource in the task of data curation.
## References
1. Sohrab, Mohammad Golam, et al. Proceedings of the 2nd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 12th International Joint Conference on Natural Language Processing: System Demonstrations. 2022.
2. Kusner, M., Sun, Y., Kolkin, N. \& Weinberger, K.. (2015). From Word Embeddings To Document Distances. Proceedings of the 32nd International Conference on Machine Learning. 37:957-966 Available from
https://proceedings.mlr.press/v37/kusnerb15.html | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A5-2.pdf | # 文字起こしテキストから得た質問のタグ推定
自見仁太朗 1 大野正樹 2 橋本泰一 2 嶋田和孝 1
1 九州工業大学 大学院情報工学研究院 ${ }^{2} \operatorname{RevComm}$
jimi.jintaro102@mail.kyutech.jp \{masaki.ono,hashimoto\}@revcomm.co.jp
shimada@ai.kyutech.ac.jp
## 概要
本論文では,営業員と顧客の会話の文字起こしテキストから得られた質問のタグを推定するタスクに取り組む。質問には冗長性や言い間違えを含まれるため,その内容を理解することが難しい.私たちは大規模言語モデルによって質問のトピックを推定することで,質問を簡潔な文書に変換した.さらに,質問の内容を理解することに適した単語のみをタグとして獲得した.評価では,実際の営業員と顧客の会話から得た約 1 万件の質問とオープンなモデルである Llama2 を用いた。
## 1 はじめに
音声認識技術と自然言語処理技術の発展により, それらの技術を応用して電話対応をサポートすることが期待される. 重要な応用の一つは, 顧客と営業員のやり取りを分析し,質問における傾向を認識することである。これは営業員に既存の問題に対する知見を提供し,販売戦略の更新につながる.
本論文では,営業員と顧客の会話の文字起こしテキストから得られた質問のタグを推定するタスクに取り組む.タグとはその質問の内容を識別できる目印を指す。本論文の手法の概要を図 1 に示す. 質問に含まれている「InsideSales」と「案件」 は, KeyBERT[1] によってキーワードとしては認識されたが,これらは質問の内容を示すには十分ではないと本論文では考えた。そして 2 段階の方法で夕グを抽出することを試みた。
本論文が対象とする,営業員と顧客の会話の文字起こしテキストには 2 つの特徴がある. 1 つ目は, テキストが冗長性や言い間違えを含み,Web 記事などの人手で整理されたテキストよりもより複雑であることである.2つ目は,多様な話題を含むことである。これは一般的に知られており,発話の意図を特定する意図検出タスクのデータセットである
## 書き起こしテキストから得た質問
図 1 本論文の手法の概要
Banking77 [2] と Clinic150 [3] は,発話に対して 70 種類以上の分類を持つ。また,私たちが ChatGPT ${ }^{1}$ によって,営業員と顧客の会話から得た質問群に対してトピック推定を行ったところ,10,334 の質問から 7,235 のトピックが生成された.
1つ目の特徴に対処するために,私たちは大規模言語モデル(LLM)によって質問のトピックを推定することで,簡潔で言い間違えがないテキストを生成する。近年の研究は,LLM が誤りを含む文書を正しい文書に変換できること [4] と,LLM によるアノテーションは人手のアノテーションと同等であることを報告している [5][6][7]. これらは,LLM が複雑なテキストを理解する能力があることを示唆する。
2つ目の課題に対処するために,質問の傾向を分析する要求を,質問からタグを抽出するタスクとして扱う。一般的に,意図検出タスクは教師あり分類問題として定式化されるが,本論文の対象はラベルなしテキストである.LLMによってアノテーションのコストを低減し教師データを作成すること [8] が考えられるが,その場合には分類先のクラスを手動で決定する必要があるため,多数のクラスを扱う
1) https://chat.openai.com/
表 1 質問とトピックとタグの例:(解析-分析) は「解析」と「分析」の2つのタグがマージされていることを示す
& スケジュール確認の依頼 & スケジュール確認,依頼 \\
場合に実装が困難である。
本論文は 2 段階の手法を質問に適用した。 1 つ目は,トピック推定であり,LLMを使用して与えられた質問のトピックを推定する。ここでは,LLMの出力を制限するために In-Context Learning(ICL)[9] をする.さらに精度を向上させるために,推論を複数回行い [10], 尤度に着目して誤って推定されたトピックを削除する (Self Consistency). 2つ目は,タグの抽出であり,与えられたトピックからタグとして考えられる単語を導出する. トピック推定の出力はある程度統一されたフォーマットを持つため, ここではルールベースの手法を適用する. 入力と各段階における出力の例を表 1 に示す.
実際の営業員と顧客の会話から得た約 1 万件の質問を対象にして評価を行った. Llama2 ${ }^{2}$ )を使用して,㔯長性や言い間違えを含む日本語のテキストから,80\%の正解率でトピックを抽出することができた.ICLが LLM の出力を制限することに効果があった.
## 2 提案手法
## 2.1 トピック推定
本節では,質問からそのトピックを抽出する手法について説明する.この手法は, 冗長性や言い間違えを含んだテキストを短く綺麗なテキストに変換し,タグ抽出の精度を上げる役割がある. 質問応答の分野では, 要約手法によって不要な情報を取り除き,精度が向上したことが報告されている [11].
本論文の目的は質問の傾向を分析することであり,質問から得られたトピックの集約を容易にするためにトピックの表層系が似通っている必要がある.そこで,LLM の出力を制御するために ICLを適用した. ICL は大力と出力の例をプロンプトに含
2) https://ai.meta.com/llama/
図 2 トピック推定を複数回行った場合の出力
ませることで,LLM に出力の形式や内容を伝える手法である. 先行研究で ICLが様々なタスクにおける LLM の性能を向上させたことが報告されている [12]. ICL の副作用としてプロンプトのトークン数が増え, 計算量を増加することが挙げられる. そこで,計算の効率を上げるために,本論文では 1 つのプロンプトに複数の入力を含ませた.
トピック推定の精度を上げるために 2 つの手法を使用した. 1 つ目は,与えられた質問に対してトピックが導出される尤度を計算し, その值が低いトピックを扱わないことである. 2 つ目は, 複数回の推論を行うことであり,その例を図 2 に示す. プロンプトの詳細については付録 A に記述する。
## 2.2 タグ抽出
本節では,トピック群からタグ候補を抽出し,質問にタグを付与する手法について説明する. トピック抽出における出力が一定のフォーマットを持つために,本論文では,夕グ候補の抽出のためにルールベースの手法を使用した。
タグは,一目で質問の内容を識別できる目印であり,トピックに存在するキーワードと等価ではないと本論文では考えた。例えば,トピックである 「ツール導入の状況について質問する」から,「ツー ル導入」と「質問」をタグとして抽出したい。「状況」はそれだけでは情報が乏しく,タグとしては不適切である。本論文ではストップワードを使用することで,対象外のタグ候補を特定する。
タグ抽出は,4つのステップで構成される. はじめに,係り受け解析によってチャンク単位での分割を行い,ルールを適用してタグ候補を得る、ルールは,1) 名詞 - 動詞 - 助動詞以外の語の削除,2) 非自立語のみで構成されるチャンクの削除,3) 文末のサ変動詞の削除,4) 数列 - 人名の正規化,5) 時制の統一,の 5 つである.
次に, 前ステップで作成したタグ候補から不適切なものを取り除くために,名詞を対象にしてストップワードを生成する。本論文では,「複合名詞や名詞句の後方に頻繁に現れる語は,他の名詞に情報を補強されることが多いため,単体では情報が乏しい」と仮定した。そして,スコアリング関数を定義し,その值が閾値を超えたものをストップワードとし, タグ候補から取り除いた。係り受けに着目して語の曖昧性を定義した先行研究として SPIQA[13] があり,ここでは質問応答システムへの入力において修飾語のない語は情報が乏しいと判断した.
スコアリング関数の定義を示す. ある名詞 $x$ がトピック群に出現する回数を $n$, 複合名詞の先頭以外に出現した回数を $\mathrm{n}_{\mathrm{h} 1}$, 語 $x$ が名詞句の先頭以外に出現した回数を $\mathrm{n}_{\mathrm{h} 2}$ とする. また,名詞 $x$ が抽出されたタグ候補の先頭以外に出現する回数を $\mathrm{m}_{\mathrm{h}}$ とし, タグ候補中の先頭以外に出現する名詞全ての出現回数を $\mathrm{m}_{\mathrm{all}}$ とする.
$
\operatorname{score}_{x}\left(n, n_{h 1}, n_{h 2}, m_{x}, m_{\text {all }}\right)=\frac{n_{h 1}}{n} * \frac{n_{h 2}}{n} * \frac{m_{h}}{m_{\text {all }}} * 100
$
3 つ目のステップで, 1 語から構成される夕グを対象に,似た語義を持つタグをマージする. word2vec[14] によってタグをべクトルに変換し, cos 類似度が間値以上であるタグのペアをマージする。最後に,タグ候補の要素を質問のトピックと文字列照合し,質問にタグを付与する。このとき,重複を避けるため最大長のタグを付与する.
## 3 評価
この節では営業員と顧客の会話の文字起こしテキストから得られた質問に対して,トピック推定とタグ抽出を適用した結果を報告する。質問の件数は 10,334 件であり,これは 2017 年から 2023 年に行われた会話から得られた。言語モデルとして Llama 2 70B ${ }^{3}$ (Llama2)を選び,AWQ[15] によって量子化し,vLLM[16] によって実行した. タグ抽出における係り受け解析器として ( CaboCha4)を使用した。ま
3) https://huggingface.co/meta-llama/Llama-2-70b
4) https://taku910.github.io/cabocha/
た,ストップワードスコアの閾値を 1.0 , マージの際の $\cos$ 類似度の閾値を 0.75 に設定した。
## 3.1 トピック推定
精度 LLM によって推定されたトピックの正確性を評価するために,100 件のトピックと質問のペアをランダムに取得し,人手でその紐付けが正しいか判断した. その結果, 正解率 $80 \%$ であった. ここでは 10,334 件の質問を対象にして推論を 4 度行い,推論結果を全て使用した1つの質問に対して異なる複数のトピックが紐づいても正解と判断した. 例えば,ある質問に対して,「業務内容を質問する」と 「お客様の業務を質問する」のトピックが導出された場合,それらはどちらも正しいトピックと判断する. 本来であれば,適合率と再現率の指標を用いて出力の質と量のトレードオフを考察すべきであるが,ある質問から生成され得るトピックを網羅することができず,再現率を計算することが難しい。
私たちは尤度に着目して,質問に対する誤ったトピックを特定しょうと試みた。この試みの評価を行うために,10,334 件の質問とトピックのペアの龙度を測り,尤度が上位 $25 \%$ のぺアと下位 $25 \%$ のペアからそれぞれランダムに 50 件を獲得した. そして,人手でその紐付けが正しいか判断したところ,上位 $25 \%$ のペアの正解率が $84 \%$ であり,下位 $25 \%$ のペアの正解率が $56 \%$ であった. これは尤度と質問とトピックの紐付けの正確さが関連することを示す.
ICL における例の数 ICL における例の数を増やすことで性能が上がることが一般に知られており,本論文では, ICL における例の数と出力されるトピック数の関係を評価した. 評価結果を表 2 に示す. 出力数とは回答が得られた質問であり,欠損率とは回答が得られなかった質問の割合である.ここでは 10,334 件の質問を対象にして推論を 1 度行い, 1 つのプロンプトに8つの質問を含ませた。また, トピック数とは出力から重複を取り除いた,ユニー クなトピックの数である.
表 2 を見ると,例の数が増えるたびに欠損率とトピック数が減っている。これは,例が増えることで私たちの意図を LLM が理解し, 出力されるトピックの表層形が集約されていることを示す. 例を 2 つ与えた場合の欠損率は 0.005 であり, 8 個の入力にほぼ全て回答している.
計算時間本論文では,計算の効率を上げるために,1つのプロンプトに複数の入力を含ませた. そ
表 2 In-Context Learning の効果
表 3 トピック推定の計算時間の変化
& & \\
の試みを評価するために,1つのプロンプトが含む ICL の例と入力の数を変えた場合の実行時間を表 3 に示す. ランダムに選んだ質問によってプロンプトを作成することを 20 回行い,その平均によって入カトークン数を計算した. 1 つのトピックのトークン数を 30 として出力トークン数を計算した.
表 3 を見ると,1つのプロンプトに 6 つの例と 1 つの質問を含む場合の実行時間は 2.39 秒である. また,6つの例と 8 つの質問の場合に実行時間は 11.54 秒である.この場合に 1 質問あたりの実行時間は 1.44 秒であり,これは 1 つの質問を含む場合の実行時間の $60 \%$ である. よって,1つのプロンプトで複数の入力を使用することで実行時間が短縮した. ミニバッチによって推論を行うことでより実行時間が短くなるが,本論文では報告しない.
## 3.2 タグ抽出
この節ではタグ抽出の評価を報告する。10,334 件の質問を対象に,Llama 2 によって推論を 4 度行い, その全てを結果の対象にしてタグ抽出を行った。
トピック抽出の効果営業員と顧客の会話の文字起こしテキストは壳長性や言い間違えを含むため,本論文ではトピック推定を行い,質問を簡素で言い間違えが少ないテキストに変換した. その試みを評価するために,質問とトピックのそれぞれからタグ候補を抽出して比較した. 出現頻度が高いタグ候補を表 4 に示す。質問から得られたタグ候補は「いう」「あの」などであり,これらは情報が乏しい.
ストップワード本論文では,タグは一目で質問の内容を識別できる目印であると考えた。そして,表 4 質問とトピックから得られたタグ候補上位 5 件
複合名詞や名詞句における出現位置に着目してタグとして的確ではない語を特定し,ストップワードとしてまとめた. ここでは,ストップワードの例を示し,その内容を論じる。
出現頻度が高いストップワードは,「状況」「内容」「方法」である。本論文では単語をタグの候補としており,これらの単語は質問の内容を示していないと考える. そのため, 出現頻度が高いストップワー ドは,本論文の考えに沿っている.
タグのマージ本論文では, word2vec を使用して似た語義を持つタグをマージした。この試みの効果を論じるために,マージされたタグと同じタグが得られたトピック群の例を 2 つ示す.
1.【タグ】(スマートフォン-モバイル)(利用-使用)【トピック】「スマートフォンでの利用について質問する」,「スマートフォンの利用状況を質問する」,「モバイルの使用状況を質問する」
2.【タグ】(利点-メリット-デメリット)【トピック】「利点を質問する」,「デメリットを質問する」,「メリットを質問する」
1 つ目の例では,「スマートフォン」と「モバイル」,「利用」と「使用」がマージされており,3つのトピック群から同様のタグを抽出できた. 2 つ目の例では,「利点」「メリット」「デメリット」がマー ジされている.「メリット」と「デメリット」が出現する文脈は似ているが,これらは正反対の語義を持つためマージしない方が良いだろう, word2vecによるタグのマージは,対義語を扱えないことがある.
## 4 まとめ
本論文では,営業員と顧客の会話の文字起こしテキストから得られた質問のタグを推定するタスクに取り組んだ.LLMによって壳長性や言い間違えを含むテキストを簡潔で言い間違えがないテキストに変換した. タグは一目で質問の内容を識別できる目印であると考え,複合名詞や名詞句における出現位置に着目してタグとして的確ではない語を特定した. 評価では,実際の営業員と顧客の会話から得た約 1 万件の質問とオープンなモデルである Llama2 を用いた。
## 参考文献
[1] Maarten Grootendorst. Keybert: Minimal keyword extraction with bert., 2020.
[2] Iñigo Casanueva, Tadas Temcinas, Daniela Gerz, Matthew Henderson, and Ivan Vulic. Efficient intent detection with dual sentence encoders. In Proceedings of the 2nd Workshop on NLP for ConvAI - ACL 2020, mar 2020. Data available at https://github.com/PolyAI-LDN/task-specificdatasets.
[3] Stefan Larson, Anish Mahendran, Joseph J. Peper, Christopher Clarke, Andrew Lee, Parker Hill, Jonathan K. Kummerfeld, Kevin Leach, Michael A. Laurenzano, Lingjia Tang, and Jason Mars. An evaluation dataset for intent classification and out-of-scope prediction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), 2019.
[4] Qi Cao, Takeshi Kojima, Yutaka Matsuo, and Yusuke Iwasawa. Unnatural error correction: GPT-4 can almost perfectly handle unnatural scrambled text. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 8898-8913, Singapore, December 2023. Association for Computational Linguistics.
[5] Shuohang Wang, Yang Liu, Yichong Xu, Chenguang Zhu, and Michael Zeng. Want to reduce labeling cost? GPT-3 can help. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 4195-4205, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[6] Xingwei He, Zhenghao Lin, Yeyun Gong, Hang Zhang, Chen Lin, Jian Jiao, Siu Ming Yiu, Nan Duan, Weizhu Chen, et al. Annollm: Making large language models to be better crowdsourced annotators. arXiv preprint arXiv:2303.16854, 2023.
[7] Alexander Pan, Jun Shern Chan, Andy Zou, Nathaniel Li, Steven Basart, Thomas Woodside, Hanlin Zhang, Scott Emmons, and Dan Hendrycks. Do the rewards justify the means? measuring trade-offs between rewards and ethical behavior in the machiavelli benchmark. In International Conference on Machine Learning, pp. 2683726867. PMLR, 2023.
[8] Zihan Wang, Tianle Wang, Dheeraj Mekala, and Jingbo Shang. A benchmark on extremely weakly supervised text classification: Reconcile seed matching and prompting approaches. In Anna Rogers, Jordan Boyd-Graber, and Naoaki Okazaki, editors, Findings of the Association for Computational Linguistics: ACL 2023, pp. 3944-3962, Toronto, Canada, July 2023. Association for Computational Linguistics.
[9] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. Advances in neural information processing systems, Vol. 33, pp. 1877-1901, 2020.
[10] Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, and Denny Zhou. Self-consistency improves chain of thought reasoning in language models. arXiv preprint arXiv:2203.11171, 2022.
[11] Fangyuan Xu, Weijia Shi, and Eunsol Choi. Recomp: Improving retrieval-augmented $1 \mathrm{~ms}$ with compression and selective augmentation. arXiv preprint arXiv:2310.04408, 2023.
[12] Qingxiu Dong, Lei Li, Damai Dai, Ce Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, and Zhifang Sui. A survey for in-context learning. arXiv preprint arXiv:2301.00234, 2022.
[13] Chiori Hori, Takaaki Hori, Hideki Isozaki, Eisaku Maeda, Shigeru Katagiri, and Sadaoki Furui. Deriving disambiguous queries in a spoken interactive odqa system. In 2003 IEEE International Conference on Acoustics, Speech, and Signal Processing, 2003. Proceedings.(ICASSP'03)., Vol. 1, pp. I-I. IEEE, 2003.
[14] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, Vol. 26, , 2013.
[15] Ji Lin, Jiaming Tang, Haotian Tang, Shang Yang, Xingyu Dang, and Song Han. Awq: Activation-aware weight quantization for $1 \mathrm{~lm}$ compression and acceleration. arXiv preprint arXiv:2306.00978, 2023.
[16] Woosuk Kwon, Zhuohan Li, Siyuan Zhuang, Ying Sheng, Lianmin Zheng, Cody Hao Yu, Joseph Gonzalez, Hao Zhang, and Ion Stoica. Efficient memory management for large language model serving with pagedattention. In Proceedings of the 29th Symposium on Operating Systems Principles, pp. 611-626, 2023.
## A 本研究で用いたプロンプト
本論文でトピック推定を行う際に使用したプロンプトについて解説する. プロンプトは, 命令と例と入力の 3 つのパートで構成される. 表 5 に各パートの例とそれらを Llama2 に与えた際の出力例を示す.
命令のパートでは,LLM にタスクを説明をする。 ここでは,より詳細にタスクを書くことで, 出力の精度が向上することが知られている.本論文では,入力が営業に関連することを伝えた.
例のパートは, ICL における例であり, 出力の形式や内容を伝えるために入力と出力のペアを示す部分である. 例の数を増やすことで性能が上がることが一般に知られており, 本論文では例の数と出力されるトピック数の関係を評価した. 表 5 には 2 つのペアを含む例を載せた。
入力のパートでは,プロンプトで処理したいテキストを示す. 本論文では営業員と顧客の会話の文字起こしテキストから得られた質問が入力に該当する. 1 つのプロンプトには,複数の入力を含ませることができ,表 5 には大力される質問が 3 つである場合の入力パートを書いている.
表 5 の出力とは, Llama2 の出力例を示している.適切なプロンプトを書くことで,ユーザの指定したフォーマットに従った出力を得ることができ,この出力例では例のパートと同様のフォーマットに沿った出力が得られた. この出力例は複数の質問のトピックを含んでいるため,各トピックを取得するためには出力をパースする必要がある. もしも, 出力における区切り文字が変更された場合にはパー スが失敗する。また,入力が複数ある場合には,全ての入力に対応する出力が得られないことがある. ユーザの意図に沿った出力を得るための方法として,ICL における例の数を増やすことや推論を複数回行うことが挙げられる.表 5 プロンプトの各パートと出力の例
\\
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A5-3.pdf | # 大規模言語モデルによる 少数かつ短文の文書に対するトピックモデリング
土井 智暉 1 磯沼 ${ }^{1,2}$ 谷中 瞳 1
1 東京大学 2 エディンバラ大学
\{doi-tomoki701, hyanaka\}@is.s.u-tokyo.ac.jp m.isonuma@ed.ac.uk
## 概要
短文の文書に対するトピックモデリングは,近年研究されているニューラルトピックモデルにとっても,依然として挑戦的なタスクである。一方で,大規模言語モデルは様々なタスクで優れた性能を示しており,トピックモデリングにおいても優れた性能が期待できる. 本研究では, 大規模言語モデルとして GPT-3.5, GPT-4 を取り上げ, 少数かつ短文の文書に対するトピックモデリングの性能を調査する. 実験の結果から, 大規模言語モデルは少数かつ短文の文書においては既存のトピックモデルよりも高性能であり, hallucination などの懸念についても影響は実用上無視できるほど小さいことを示す.
## 1 はじめに
トピックモデリングは文書の集合から潜在的なトピックを発見するタスクである ${ }^{11}[1,2]$. 近年ではニューラルモデルが活用され, 従来の統計的確率モデルより高い性能を示している $[3,4,5]$. しかしニューラルモデルは少数データに対しては性能が劣化する傾向があり,さらに短文に対するトピックモデリングは挑戦的であるといわれている $[6,7]$.
近年では, InstructGPT[8] や GPT-4[9] のような大規模言語モデル (large language models; LLM) が, 適切なプロンプトを与えることで, 様々なタスクで優れた性能を示している $[10,11,12,13]$. そこで,LLM は少数かつ短文の文書集合に対するトピックモデリングにおいても,優れた性能を示すことが期待できる。
本研究では,LLM として GPT-3.5, GPT-4を想定し,少数かつ短文の文書集合をプロンプトで与えたときのトピックモデリングの性能を調査する. LLM に由来する懸念点として, 出力されたトピックが文
1)本研究では,各文書のトピック分布の推定は考慮しない.
図 1 システムプロンプトおよびユーザプロンプトを通した, 大規模言語モデルによるトピックモデリング. 全ての文書は 1 つのユーザプロンプト内で与えられる.
書のごく一部のみを反映してしまう可能性や, 与えた文書集合に含まれないトピックを出力してしまう hallucination が想定される. そこで, トピックモデリングの評価で標準的な指標に加え,トピックが文書をどれだけカバーしているかを評価する指標と,トピックがどれだけ文書中の語で構成されているかを評価する指標を新たに導入する. また,出力の安定性として,適切なトピックモデリングの出力がどの程度得られるかについても,併せて評価する。
## 2 背景
トピックモデリングは,文書集合から,潜在的なトピックをトピックワードと呼ばれる語の集合の形で出力するタスクである $[1,2]$. 発見するトピック数やトピックワードを構成する語数は, 事前に決定する. 従来は Latent Dirichlet Allocation (LDA, [1]) に代表される統計的確率モデルを用いて取り組まれてきたが, 近年ではニューラルモデルを用いた手法が研究され, 高い性能を示している [4, 14, 15].
一方で, 短文からなる文書集合に対するトピックモデリングは, データのスパース性のために難しいことが知られている [6, 7]. TSCTM [7] はそのようなトピックモデリングにおける State-of-the-Art (SoTA) であり, VQ-VAE [16] に基づいた対照学習とデータ拡張を活用している.
LLM を活用したトピックモデルとしては BERTopic [15]が挙げられる. BERTopic では SentenceBERT [17]を用いて文書の埋め込み表現を獲得し, UMAP [18] によってクラスタリング, TF-IDF ベー スの手法でトピックワードを割り当てる.これに対し, 本研究では GPT-3.5, GPT-4 が文書からトピックワードを構成するまでを End-to-End で行うトピックモデリングを提案する. また, ChatGPT $^{2)}$ を用いてトピックモデルの性能評価を行った研究 [19] も存在する.しかし,これまでの研究ではトピックモデリング自体における LLM の性能は調査されていない.
## 3 手法
本研究では, OpenAI が提供する $\mathrm{API}^{3}$ )を用いて, GPT-3.5 (gpt-3.5-turbo-1106) および GPT-4 (gpt-4-1106preview) に対してトピックモデリングのタスク説明と文書集合をプロンプトとして与えることで,文書集合からトピックワードを得る.
具体的には,既存のトピックモデリング手法に倣い,事前に文書を前処理済みの Bag-of-Words の形に変換する. そして, 各文書を改行記号で結合し, 1 つユーザープロンプトとしてモデルに与える. 同時に, トピックモデリングのタスク説明を含めたシステムプロンプトを与え, 適切なトピックワード数, トピック数を満たしたトピックワードを出力するように指示する. ただし, モデルの出力が不適切であった場合は再度同様のプロンプトを与え, 適切な出力が得られるまで試行を繰り返す。
プロンプトについては予備実験を行い, $[12,13,20]$ で使われているようなプロンプトにおける性能を調査した. 結果, 図 2 に示したシステムプロンプトを与え,ユーザープロンプトで文書集合を与える方法が最も高い性能を示したため,これを用いる.
## 4 実験
3 節で述べた手法について, 特に少数かつ短文の文書集合に対する性能を調査する. 本研究ではトピック数が 10 および 25 , トピックワード数が 5 の条件下でトピックモデリングを行う.
## 4.1 データセット
5~10 語程度しか含まない短文文書で構成されるデータセットとして GoogleNewsT [21], Tweet [22],
2) https://chat.openai.com/
3) https://platform.openai.com/docs/guides/ text-generation (2024 年 1 月 12 日参照)
You are a topic model, discovering latent topics in
given texts depending on word co-occurrence.
Inputs are texts of many documents. Each line cor-
responds to each document, separated by linefeed
codes.
Please discover NUM_TOPICS latent topics from
input texts and show their meanings with pre-
cisely NUM_TOPWORDS words extracted from in-
put texts.
Outputs always should be in the format "Topic N:
word1 word2 ..." where N is one to NUM_TOPICS.
Only make formatted outputs.
Make sure that the number of words for each topic
is NUM_TOPWORDS, except for "Topic N:".
図 2 トピックモデリングのためのシステムプロンプト.NUM_TOPICS および NUM_TOPWORDS は実行時には “five”や“fifteen” など適宜置き換えられる,
StackOverFlow4) が挙げられる。本研究では,これらのサブセット59)のうち, ランダムにサンプリングした 1000 事例をトピックモデリングの対象とする.
[7] 亿従い, 前処理として (i) 小文字化, (ii) 2 文字以下の単語の除去, (iii) 出現頻度が 5 回未満の低頻度語の除去を行う. ${ }^{6}$
## 4.2 ベースライン
従来の統計的確率モデルである $\mathrm{LDA}^{7)}$ と SoTA であるニューラルモデル $\mathrm{TSCTM}^{7)}$ をべースラインとする.さらに,データ拡張を適用した場合の各モデルについても,併せてべースラインとする.これは,短文を扱うタスクおけるデータ拡張の有用性が示されているためである [7,23].
TSCTM のハイパーパラメータについては [7] に従う. データ拡張については WordNet Augmenter ${ }^{8)}$ と Contextual Augmenter ${ }^{8)}$ [24]を適用する.これらは, 文書中の語を, それぞれ WordNet で定義された同義語および BERT[25] モデルが同じ位置に存在しうると予測した語で置き換える拡張手法である. 本研究では [7] に従い,各手法によって $30 \%$ の語を置き換えたのち, 前処理と同様に低頻度語を除去することで拡張データを作成する.
表 1 Coherence $(C v)$ と Diversity $(T U)$ の平均値.“+Aug” はデータ拡張を適用した場合のモデルの性能を表す. $\mathrm{Cv}, \mathrm{TU}$ はいずれも高いほど良く,TU はトピックワードがトピック間で完全に異なるとき最大値 1 をる.
表 2 Document Coverage $(D C)$ と Factuality $(F a)$ の平均値. “+Aug”はデータ拡張を適用した場合のモデルの性能を表す.いずれの値も高いほど良い. データ拡張を適用しなかった場合のベースラインモデルにおいては,与えられた文書集合のみに基づいてトピックを出力するために,Faの値は必ず最大値 1 をとる.
## 4.3 評価
評価指標として,トピックの品質を評価する標準的な 2 つの指標に加え, LLM によるトピックモデリングで想定される懸念点を考慮するために,2つの指標を新たに導入する. さらに,LLMによるトピックモデリングの出力安定性についても検討する.
Coherence, Diversity トピックの Coherence (各トピックを構成するトピックワードに一貫性があるか) と Diversity (トピックワードがトピック間で互いに異なっているか) はトピックモデリングの評価指標として標準的である [7, 14, 15]. [7] に従い, Coherence として, Wikipdeia 上でのトピックワードの共起性に基づく coherence value ( $C v,[26])$ を計算し9), Diversity として,各トピックにユニークなトピックワードの割合に基づく topic uniqueness ( $T U$, [27])を計算する.
Document Coverage LLM によるトピックモデリングにおいて想定される懸念点として, 文書のご
く一部のみを反映したトピックが出力される可能性が挙げられる. そこで, モデルが出力したトピックが文書集合をどれだけカバーしているかを評価するために, 新しい指標 Document Coverage (DC) を提案する.
$
D C=\frac{\mid\left.\{d \in D_{\text {original }}: \exists w \text { s.t. } w \in \bigcup_{k} T_{k}, w \in W_{d}\right.\} \mid}{\left|D_{\text {original }}\right|}
$
ここで $d$ は Bag-of-words $\left.\{w_{1}, \ldots, w_{n}\right.\}$ で表された文書であり, $W_{d}$ は文書 $d$ に含まれる語の集合である.また, $D_{\text {original }}$ と $T_{k}$ は, それぞれデータ拡張適用前の元の文書集合と $k$ 番目のトピックにおけるトピックワードを表す.
Factuality LLM に由来するもう1つの懸念点は hallucination である. つまり,LLM は文書集合中に含まれないトピックを出力する可能性がある. そこで,モデルが出力したトピックワードが与えられた文書に基づいているかを評価するために,新しい指標 Factuality $(F a)$ を導入する.
$
F a=\frac{\mid\left.\{w \in \bigcup_{k} T_{k}: \exists d \in D_{\text {original }} \text { s.t. } w \in W_{d}\right.\} \mid}{\left|\bigcup_{k} T_{k}\right|}
$
$F a$ の值が大きいほど,より多くのトピックワードが文書中の語彙で構成されていることになる。なお,データ拡張を適用したベースラインモデルにおいて,Faの値が1未満になりうることを述べておく.なぜなら,データ拡張時の語置換によって,元の文書集合に含まれない語が拡張データに含まれている可能性があるからである.
出力安定性 3 節で述べたように,LLM によるトピックモデリングにおいては,指定したトピック数,トピックワード数に準拠した適切な出力が得られるまで,試行を繰り返す. 本研究では,このとき必要だった試行回数を出力安定性の指標として報告する。なお,ベースラインを含む従来のトピックモデルにおいては,適切な出力が得られるのは自明である.
## 5 結果
各モデルについて 3 回ずつトピックモデリングを実行した. 表 1 , 表 2 に結果を示す. 出力安定性についても,3回の平均値を表 3 に示す.
トピックの品質表 1 から,GPT-3.5 および GPT-4 のスコアは Coherence $(C v)$ と Diversity $(T U)$ のいずれにおいても比較的高い值を示し, ベースラインと比較して高品質なトピックを出力していることがわかる ${ }^{10)}$. 特に Coherence については,ベースライン間のベストスコアよりも 20~50\% 程度高いスコアを獲得している。例えば,GoogleNewsTにおいて GPT-4 は,トピック数が 10 のときLDAの 0.374 に対して 0.591,トピック数が 25 のとき TSCTM の 0.455 に対して 0.552 であり, それぞれ約 $58 \%$, 約 $21 \%$ の性能改善を示している.
Document Coverage 表 2 から, GPT-3.5, GPT-4 の Document Coverage ( $D C$ ) はベースラインモデルよりも低いスコアを示していることがわかる。このことから,LLM が出力したトピックがカバーする文書数は, ベースラインモデルのそれよりも少ないと考えられる. ただし, Coherence $(C v)$ と Document Coverage の間にはトレードオフがあることを述べておく.
Factuality 表 2 から,GPT-3.5, GPT-4 の Factuality (Fa) は,特にデータ拡張しなかった場合のべースラインモデルと比較して,低い值を示していることがわかる。したがって,これらのモデルは文書集合中に存在しない語をトピックワードとして出力しう
表 3 LLM によるトピックモデリングにおいて適切な出力が得られるまでにかかった試行回数 (出力安定性) の平均値. 例えば GPT-3.5 は, GoogleNewsT においてトピック数を 10 とした場合 $(K=10)$ は, 平均して 4 回目の試行で初めて適切な出力が得られることを意味する。
ると考えられる,一方で,多くの場合でこれらのモデルにおける Factuality は 0.98 以上であり,このとき 50 個のトピックワードにつき文書集合中に存在しない語は 1 個程度である. さらに, そのような語を分析した結果,多くは文書集合中に含まれる語の類義語や派生語 (stream と streaming など), あるいは関連する語 (actor と movieなど) であり,トピックの誤った解䣋を誘因するような有害なものは少ないことがわかった ${ }^{11}$. これらのことから,LLM の hallucination に関する懸念点は,実用的には無視できると考えられる。
出力安定性 4.3 項で述べた出力安定性について, 3 回の平均值を表 3 に示す. より大きいトピック数の条件下 $(K=25)$ で,より多くの試行を必要としており,出力安定性が低下することがわかる。しかし一方で従来のトピックモデルにおいても,実際にテキスト分析に使用する際には,トピック数として 10 15 程度を採用した上で分析しやすい結果が得られるまで試行を繰り返している [28,29]. したがって,GPT-3.5 および GPT-4 の出力安定性については,実用的には十分であると考えられる。
## 6 おわりに
本研究では,少数かつ短文の文書集合に対する GPT-3.5 および GPT-4 によるトピックモデリングの性能を調査した. 実験においては,トピックの品質を評価する標準的な指標に加え,2つの新しい指標 Document Coverage と Factuality を導入し,想定される懸念点の影響の大きさを検討した.結果,本研究の実験設定においては, GPT-3.5, GPT-4 は既存のトピックモデルよりも高品質なトピックを出力できることがわかった.また想定される懸念点の影響は無視できるほど小さく, 出力の安定性についても実用上十分に高いことを示した. 今後の展望として, ょり文書数が多い文書集合に対する,LLM によるトピックモデリング手法の開発を行う予定である.
11)具体的な語や分析の詳細については付録 A. 2 に示す.
## 謝辞
本研究は JST さきがけ JPMJPR21C8 の支援を受けたものである.
## 知考文献
[1] David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, Vol. 3, pp. 993-1022, 2003 .
[2] Rob Churchill and Lisa Singh. The Evolution of Topic Modeling. Vol. 54, p. 35, 2022. Issue. 10s.
[3] Yishu Miao, Edward Grefenstette, and Phil Blunsom. Discovering Discrete Latent Topics with Neural Variational Inference. In Proceedings of the 34th International Conference on Machine Learning - Volume 70, 2017.
[4] Akash Srivastava and Charles Sutton. Autoencoding Variational Inference For Topic Models. In International Conference on Learning Representations, 2017.
[5] Adji B. Dieng, Francisco J. R. Ruiz, and David M. Blei. Topic Modeling in Embedding Spaces. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 439-453, 2020.
[6] Chenliang Li, Haoran Wang, Zhiqian Zhang, Aixin Sun, and Zongyang Ma. Topic Modeling for Short Texts with Auxiliary Word Embeddings. In Proceedings of the 39th International ACM SIGIR Conference on Research and Development in Information Retrieval, 2016.
[7] Xiaobao Wu, Anh Tuan Luu, and Xinshuai Dong. Mitigating Data Sparsity for Short Text Topic Modeling by Topic-Semantic Contrastive Learning. In Proceedings of the $\mathbf{2 0 2 2}$ Conference on Empirical Methods in Natural Language Processing, 2022.
[8] Long Ouyang, Jeffrey Wu, Xu Jiang, Diogo Almeida, Carroll Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul F Christiano, Jan Leike, and Ryan Lowe. Training language models to follow instructions with human feedback. In Advances in Neural Information Processing Systems, 2022.
[9] OpenAI. GPT-4 Technical Report. arXiv preprint arXiv:2303.08774, 2023. version 3.
[10] Tianyi Zhang, Faisal Ladhak, Esin Durmus, Percy Liang, Kathleen McKeown, and Tatsunori B. Hashimoto. Benchmarking Large Language Models for News Summarization. arXiv preprint arXiv:2301.13848, 2023, version 1.
[11] Longyue Wang, Chenyang Lyu, Tianbo Ji, Zhirui Zhang, Dian Yu, Shuming Shi, and Zhaopeng Tu. Document-Level Machine Translation with Large Language Models. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023.
[12] Jan Kocoń, Igor Cichecki, Oliwier Kaszyca, Mateusz Kochanek, Dominika Szyd lo, Joanna Baran, Julita Bielaniewicz, Marcin Gruza, Arkadiusz Janz, Kamil Kanclerz, Anna Kocoń, Bart lomiej Koptyra, Wiktoria Mieleszczenko-Kowszewicz, Piotr Mi lkowski, Marcin Oleksy, Maciej Piasecki, Lukasz Radliński, Konrad Wojtasik, Stanis law Woźniak, and Przemys law Kazienko. ChatGPT: Jack of all trades, master of none. Information Fusion, Vol. 99, p. 101861, 2023
[13] Md Tahmid Rahman Laskar, M Saiful Bari, Mizanur Rahman, Md Amran Hossen Bhuiyan, Shafiq Joty, and Jimmy Huang. A Systematic Study and Comprehensive Evaluation of ChatGPT on Benchmark Datasets. In Findings of the Association for Computational Linguistics: ACL 2023, 2023.
[14] Adji B. Dieng, Francisco J. R. Ruiz, and David M. Blei. Topic Modeling in Embedding Spaces. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 439-453, 2020.
[15] Maarten Grootendorst. BERTopic: Neural topic modeling with a class-based TF-IDF procedure. arXiv preprint arXiv:2203.05794, 2022. version1.
[16] Aaron van den Oord, Oriol Vinyals, and koray kavukcuoglu. Neural Discrete Representation Learning. In Advances in Neural Information Processing Systems, 2017.
[17] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3980-3990, 2019
[18] Leland McInnes, John Healy, and James Melville. UMAP: Uniform Manifold Approximation and Projection for Dimension Reduction. arXiv preprint arXiv:1802.03426, 2020. version 3 .
[19] Dominik Stammbach, Vilém Zouhar, Alexander Hoyle, Mrinmaya Sachan, and Elliott Ash. Revisiting Automated Topic Model Evaluation with Large Language Models. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023.
[20] Keqin Peng, Liang Ding, Qihuang Zhong, Li Shen, Xuebo Liu, Min Zhang, Yuanxin Ouyang, and Dacheng Tao. Towards Making the Most of ChatGPT for Machine Translation. In Findings of the Association for Computational Linguistics: EMNLP 2023, 2023.
[21] Md Rashadul Hasan Rakib, Norbert Zeh, Magdalena Jankowska, and Evangelos Milios. Enhancement of Short Text Clustering by Iterative Classification. In Natural Language Processing and Information Systems, 2020.
[22] Jianhua Yin and Jianyong Wang. A model-based approach for text clustering with outlier detection. In 2016 IEEE 32nd International Conference on Data Engineering (ICDE), 2016.
[23] Dejiao Zhang, Feng Nan, Xiaokai Wei, Shang-Wen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew O. Arnold, and Bing Xiang. Supporting Clustering with Contrastive Learning. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2021
[24] Sosuke Kobayashi. Contextual Augmentation: Data Augmentation by Words with Paradigmatic Relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), 2018
[25] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019
[26] Michael Röder, Andreas Both, and Alexander Hinneburg. Exploring the Space of Topic Coherence Measures. In Proceedings of the Eighth ACM International Conference on Web Search and Data Mining, 2015.
[27] Feng Nan, Ran Ding, Ramesh Nallapati, and Bing Xiang. Topic Modeling with Wasserstein Autoencoders. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019
[28] 武富有香, Yuri NAKAYAMA, 須田永遠, 宇野毅明, 橋本隆子,豊田正史, 吉永直樹, 喜連川優, ROCHA E C Luis, 小林亮太.日本語の大規模 Twitter データからみる新型コロナワクチン接種に関する人々の関心の推移. 人工知能学会全国大会論文集, 2023
[29] Viriya Taecharungroj. "What Can ChatGPT Do?" Analyzing Early Reactions to the Innovative AI Chatbot on Twitter. Big Data and Cognitive Computing, Vol. 7, No. 1, 2023.
## A 付録
表 4 GoogleNewsT に対するトピックモデリングにおいて,トピック数を 10 とした時に各モデルが出力したトピックの例.
表 5 GoogleNewsT に対するトピックモデリングにおいて, 各モデルが出力した文書集合中に含まれない語の例.
表 6 データ拡張 (Aug) の適用有無それぞれにおけるデー タセットの統計量. $|D|$ は文書数を示し,Len は 1 文書あたりの平均語数を示す. また, $|V|$ は語彙サイズを示す. データ拡張前の文書数が 1000 未満であるのは,低頻度語の除去により一部の文書が除外されたためである.
## A. 2 出力された文書中に存在しない語の 定性的分析
GoogleNewsT に対するトピックモデリングにおいて,モデルが出力した文書中に存在しない語の例を表 5 に示す. 太字で示された GPT-3.5, GPT-4 の出力は, 文書中に存在しない固有名詞 (playstation, murdoch, philippines) や実世界に存在しない語 (coaliation) であり,このような語はトピックの誤った解釈を誘因する可能性があるという意味で,有害であると考えられる.しかし,このような語は GoogleNewsT に対するトピックモデリングにおいてのみ出力されており, Tweet および StackOverFlow に対しては出力されなかった.
## A. 1 出力されたトピックの例
実験において実際に得られたトピックの一部を表 4 に示す. 表 4 から, GPT-3.5, GPT-4 は, LDA, TSCTM と比較して, より解釈しやすいトピック (“black friday deal shopping cyber"など) を出力していることがわかる. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A5-4.pdf | # 文献理解のための人間の応答を利用したプロンプト最適化
今川涼平 1 守山慧 2 楊明哲 2 馬場雪乃 $2^{2}$
1 筑波大学大学院理工情報生命学術院 2 東京大学大学院総合文化研究科
s2220565@s.tsukuba.ac.jp
\{kei-moriyama,mingzhe-yang, yukino-baba\}@g.ecc.u-tokyo.ac.jp
## 概要
大規模言語モデルを利用した自然言語システムの性能は,プロンプトの設計に影響される。人間の試行錯誤に基づく従来のプロンプト設計に代わる方法としてプロンプト最適化が取り組まれている。既存のプロンプト最適化手法では, 正解ラベル付きデー タの利用を前提としている.代わりに,システムの出力に対する人間からのフィードバックを利用することが考えられる. 本研究では,学術論文のタグ抽出システムの運用を想定し,プロンプト最適化において,人間から得られるフィードバックの有効性を調查する. 実験の結果,フィードバックを利用した最適化により, 再現率の向上が確認できた。一方,精度の悪化も確認され,フィードバック設計の再考の必要性などの課題も確認した.
## 1 はじめに
学術分野の細分化や,学術研究の活発化に伴った論文数の増加のため, 学術研究における関連文献調査にはより多くの時間や労力が必要となっている.関連文献調査を支援するため, 学術論文に対して, その内容等を表すタグを自動で付与するシステムの構築を考える. 各論文に付与されたタグの比較などを行うことにより,類似した文献を見つけることが容易となる。通常,このようなシステムの構築では,正解ラベル付きデータを用いて,機械学習モデルの学習を行う. しかし, 大規模言語モデルの利用により,モデル学習を行わずにシステムを実現することができる.
昨今,大規模言語モデルが,その利用の容易さからさまざまな場面で活用されている。 大規模言語モデルの利用においては,タスクに応じたモデル学習の代わりに,プロンプトの適切な設計により,特定のタスクに適用することが可能であるが,人間による従来のプロンプト設計には時間や労力がかかると
いう課題がある。この課題に対処するために,大規模言語モデルを用いたプロンプトの最適化が取り組まれている。これは,人間の試行錯誤を必要とせず,大規模言語モデルの文章生成能力を利用して, より良いプロンプトの獲得を目指す取り組みである. 既存のプロンプト最適化手法では,最適化の過程で使用する正解ラベル付き学習用データを準備する必要がある.
タグ抽出システムの運用においては,システム利用者からタグに対するフィードバックを収集することが可能である. 最も単純な,タグの正誤に対するフィードバックは,前述の正解ラベル付きデータの作成と異なり,システムが提示するタグを人間に評価してもらうことにより行える. タグの抽出は,論文文章に基づいて行われる。このため,人間はシステムの抽出タグを評価する際,文章中でタグについて言及し,タグ抽出の根拠となっている箇所を探し,その妥当性を評価すると考えられる。したがって,システムによりタグの根拠となった論文中の文がタグと同時に提示されれば,人間がシステムの夕グ抽出過程を理解するのを助け,より適切なタグの評価が可能となる.この根拠文の抜き出しは大規模言語モデルの利用により行える。また,タグの根拠文に対するフィードバックは,プロンプト最適化において,タグの追加情報として利用することができる.
本研究では,プロンプトの最適化における,人間からのフィードバックの有効性について調査する。 タグとその根拠のペアに対するフィードバックを用いることで,通常の学習用データよりも小規模なデータを用いたプロンプト最適化を目指す。より具体的には,まず,学術論文のタグ抽出システムの運用を想定する.システム利用者からシステムの出力に対するフィードバックを収集し,これを利用してプロンプトの最適化を行う.
図 1: 本研究で採用するプロンプト最適化の流れ
## 2 関連研究
より良いプロンプトの獲得のため,プロンプトの言い換え [1] や,指示のランダムサンプリング [2] などが行われている. 既存のプロンプト最適化手法の多くは, 「生成」,「評価」,「選択」の繰り返しからなる $[3,4]$. 初期プロンプトを元に多様なプロンプトを生成し,正解ラベル付きデータを用いてこれらを評価し, 評価結果に基づいて現在のプロンプトを取捨選択する. 例として, 進化アルゴリズム [5] や遺伝的アルゴリズム [6] 繰り返し適用する手法や, プロンプトを頂点, プロンプトの変更案を辺とする木の探索をおこなう手法 [7] などがある. これらの手法では,最適化の過程におけるプロンプトの評価に使用する正解ラベル付きデータを必要とするが,本研究では人間から得られるフィードバックを利用するため,事前のデータの準備の必要がないという違いがある. その他, 新たな候補プロンプトの作成を指示する効果的なメタプロンプトの調査 [8] なども行われている。
## 3 提案手法
## 3.12 段階プロンプト
本研究では,タグ抽出システムとして,入力文の中からタグと関連のある箇所を抜き出す「抜粋」と,抜き出された文章からタグを抽出する「抽出」の, 2 段階のタスクを行う。この 2 段階のタスクをモデルに明示的に行わせるため,「抜粋プロンプト」と 「抽出プロンプト」の二つのプロンプトを設計する。抜粋プロンプトでは,タスクの説明と論文文章を与え,抜き出した文章のみをそのまま出力するように指示する.続く抽出プロンプトでは,抜粋プロンプ
トの適用により抜き出された文章を大力文とし,夕スクの説明やタグの一覧を与えて,実際にタグを回答するように指示する。具体的なプロンプトの例を図 2,3 にそれぞれ示す。
## 3.2 人間からのフィードバックを用いたプ ロンプト最適化
## 3.2.1 フィードバックの利用
タグ抽出システムの利用者から取得する,タグに関するフィードバックを用いて,プロンプト最適化を行う. 本研究で行う最適化の流れを図 1 に示す.採用するアルゴリズムは,繰り返しに基づくZhou ら [3] の手法に概ね従うが,今回はタグ抽出のために二つで一組のプロンプトを採用しており,それぞれに対して最適化をおこなう。
最適化の流れとしては,まず初回のみ,あらかじめ準備した初期化用プロンプトで二つの候補プロンプトの集合をそれぞれ初期化する. 各繰り返し回が始まると,現在の最良プロンプトを親として,新たな候補プロンプトを生成し, 候補プロンプトの集合に追加する,続いて,各候補プロンプトを用いて大規模言語モデルをフィードバックデータに適用し,候補プロンプトを評価する。この評価の上位プロンプトを次の回に持ち越すように候補プロンプトの集合を更新する.新たな候補プロンプトの生成は,図 6を用いて,大規模言語モデルによる最良プロンプトの言い換えにより行う。
## 3.2.2 フィードバックの取得
システムの改善のため, タグ抽出システムは, 自らの出力に対してシステム利用者からフィードバックを収集する. フィードバックは,システムの出力に対するシステム利用者による評価のことである.具体的には,システムはタグとその根拠文をシステム利用者に提示する. 提示された根拠文がタグの根拠として適切であるか否かをシステム利用者に回答してもらい,これを二值のフィードバックとして収集する.根拠文は,タグが抽出される論文文章から大規模言語モデルに抜き出させる.根拠文の抜き出しのためのプロンプトでは,対象のタグと論文文章を与え,タグについて言及しており,タグに最も関連の強い文を回答するように指示する.論文文章の複数の箇所がタグと関連していることも想定されるが,最有力な一箇所のみを抜き出させる.これは,
最も有力な根拠文がタグの根拠として適切でなければ,そのタグの抽出が適切でないと言えると考えられるからである.
前述のフィードバックを用いて,プロンプト最適化の中で候補プロンプトの評価を行う,評価方法は,2 段階のプロンプトそれぞれ別で準備した。一つ目のプロンプトは,予測タグに対して適切であると回答を得た根拠文を,プロンプトに対する出力に含むか否かの二値で評価する。二つ目のプロンプトは,フィードバックのタグを正解として,タグを正しく予測できるかを評価基準とする.
## 4 実験
## 4.1 実験概要
本実験では,学術文献からのタグ抽出に取り組む. 学術論文として物体検知分野の論文を対象とし,各論文の提案手法と実験に関してタグを抽出する. 提案モデルのバックボーンモデルや,利用されたデータ拡張手法に関する,3 カテゴリ,計 27 タグを事前に設定した. 各論文について,適切なタグを全て抽出することをシステムの目標とする. 最適化で獲得されたプロンプトの性能を,二つのベースライン手法と比較する。一つ目は, 候補プロンプトの初期化に用いたプロンプトである. もう一つは,根拠文のフィードバックを用いた抜粋プロンプトの最適化の有効性を確認するための,タグのフィードバックを利用した抽出プロンプトの最適化のみを行い獲得されたプロンプトである. 実験全体を通し $\tau$, OpenAI ${ }^{1)}$ の gpt-3.5-turbo-16k を利用する. タグ抽出性能を確認する評価指標として, 再現率と精度を用いる。
## 4.2 データセット
実験で使用する論文は,Papers with $\operatorname{Code}^{2)} の ,$ $\mathrm{COCO}$ test-dev${ }^{3}$ を用いた物体検知のリーダーボー $r^{4)}$ 亿掲載されている中から,手法提案論文を 40 本
イルのテキスト情報のみを使用する. 要旨, 序論,
関連研究,参考文献の章と図には,事前に設定したタグに関する言及が含まれにくいため,タグ抽出の対象から除外する. 対象論文 40 本のうち 25 本は評価用とし, 残りの 15 本はフィードバックを収集するために用いる. 評価用論文に対する正解タグは,専門家二人で同意を取りながら付与した.
## 4.3 フィードバックの取得
繰り返しの各回で新たに生成される各候補プロンプトの予測に対して都度フィードバックを取得するのはコストが大きい. このため, 初期化用プロンプトを用いて抽出されたタグに対してフィードバックを収集し,最適化全体を通して使用する.フィードバックは二人の専門家から,合わせて 15 本の論文に対して,正例 106 個,負例 132 個の計 238 個を収集した.
## 4.4 プロンプト最適化設定
各回で生成する新たな候補プロンプトは 8 つとし, 各回の評価結果上位 3 プロンプトを次回に持ち越すこととする.局所解回避のため,一つのプロンプトが親となれる上限回数は 2 回とし, 上限到達後は次に良いものを親とする。最適化過程でのプロンプトの評価には,全フィードバックの中から各回でバッチとしてランダムに選択された 32 サンプルを使用し,それらに対する評価値の平均に基づいて候補プロンプトの順位付けを行う。今回収集したフィードバックの正例と負例の数の違いに対処するため,抽出プロンプトの評価に用いるフィードバックは,正例と負例が同数になるようにサンプリングする.プロンプト最適化の繰り返し回数は 8 回とする.
## 5 実験結果
## 5.1 フィードバックを用いた最適化で獲得 されたプロンプトの性能
はじめに,本研究で取り組むタグ抽出における 2 段階のプロンプトの妥当性を確認しておく. 抽出プロンプトのみの性能と, 抜粋プロンプトも利用した 2 段階の性能を表 1 にそれぞれ示す. 関連箇所の抜き出しを経ることにより精度の大きな向上が確認でき,2 段階プロンプトは本タスクにおいて妥当なプロンプト設計だと言える.
表 1: プロンプト最適化の有無によるタグ抽出性能比較
まず,人間からのフィードバックを用いたプロンプト最適化の有効性を確認する。プロンプト最適化を適用していないタグ抽出プロンプトと,それを原点としたプロンプト最適化により獲得されたプロンプトの性能をそれぞれ表 1 に示す.この結果から, プロンプト最適化を行ったことで,精度は悪化し,一方で再現率は向上していることが確認できる.続けて,根拠文のフィードバックを用いた抜粋プロンプトの最適化の有効性を確認するため,タグのフィードバックを利用した抽出プロンプトの最適化のみを行った結果を同じく表 1 に示す. この抽出プロンプトのみの最適化と比較して,抜粋,抽出プロンプトの両方を最適化した場合には再現率が大きく向上していることが確認できる.
## 5.2 最適化によるプロンプトの変化
プロンプト最適化により最終的に獲得されたプロンプトを図 $4 , 5$ に示す. これらを確認すると, 最適化の最初の親プロンプトである図 2,3 から, 語彙の選択, 文の構成など,さまざまな変化がみられる.例えば,「combine」が「merge」に,「also」が「additionally」に置換されるといった単語レベル変化から,「don't answer “true" for $\$\{$ category $\} s$ not explicitly mentioned $\lrcorner の 「$ only mark $\$$ category $\}$ s as "true" if they are explicitly mentioned $へ$ の言い換えのような表現の変化まで確認できる。一方,親プロンプトに含まれないような新たな指示の追加は確認されなかった。
## 6 考察
まず,プロンプト最適化の適用により初期プロンプトから再現率の向上が見られたが,これは抜粋プロンプト適用時の関連箇所の抜き出し漏れが減少したためと考えられる.フィードバックを用いた抜粋プロンプトの評価は,適切な根拠文がプロンプト適用時の出力に含まれるか否かで行った. この点で,根拠文に対するフィードバックを用いて,期待した最適化が行えているといえる.
一方で,フィードバックで適切とみなされた根拠文のみを利用するプロンプトの評価方法は, 最適化の結果,精度が悪化した原因でもあると考えられる.これは,抜粋プロンプトの導入により精度の向上が見られたことから推察できる。また,実際,評価用論文から抜粋プロンプトで抜き出された文の, 1 ページあたりの平均単語数は,最適化前でおよそ 180 単語であったが,最適化後では 357 単語とおよそ 2 倍に増加していることを確認しており,これは,適切な関連箇所の抜き出しを優先したプロンプ卜最適化により,タグと無関係な箇所の抜き出しが増えたことの現れだと考えられる。
今回のフィードバックの設計では,例えばある論文文章にシステムが与えた根拠文が,タグの根拠として不適切であると利用者にみなされた場合,仮に根拠として適切な箇所が他にあったとしてそのことを判定できない. この問題の解決としては,適切,不適切の二値のフィードバックだけでなく,正しい根拠文などのより詳細なフィードバックの設計, 取得などが必要となる.
次に,抽出プロンプトのみの最適化でいずれのスコアも悪化がみられたが,この原因の一つは,適切とされた根拠文に対応するタグは適切な抽出であるという仮定であると考えられる.今回収集したフィードバックは,根拠文がタグの根拠として適切であるかどうかであった.そのため,例えば,大規模言語モデルによる根拠の抽出に誤りがあれば,適切であるタグが不適切とみなされてしまう.抽出プロンプトの最適化を適切に進めるためにも,フィー ドバックの設計には改善の余地があると言える.
## 7 おわりに
本研究では,学術文献のためのタグ抽出システムの運用を想定した実験を行い,プロンプト最適化におけるフィードバック利用の有効性の有無を確認した. システムに対する人間からのフィードバックを利用したプロンプト最適化により,再現性の向上が確認された。一方, 精度の悪化が確認され, フィードバック設計の再考の必要性などの課題も確認した.
## 謝辞
本研究は,JST ムーンショット型研究開発事業 (JPMJMS2236-8) の支援を受けたものである.
## 参考文献
[1] Yihe Deng, Weitong Zhang, Zixiang Chen, and Quanquan Gu. Rephrase and respond: Let large language models ask better questions for themselves. arXiv preprint arXiv:2311.04205, 2023.
[2] Yao Lu, Jiayi Wang, Sebastian Riedel, and Pontus Stenetorp. Prompt optimisation with random sampling. arXiv preprint arXiv:2311.09569, 2023.
[3] Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han, Keiran Paster, Silviu Pitis, Harris Chan, and Jimmy Ba. Large language models are human-level prompt engineers. In Proceedings of the 2023 International Conference on Learning Representations, 2023.
[4] Reid Pryzant, Dan Iter, Jerry Li, Yin Tat Lee, Chenguang Zhu, and Michael Zeng. Automatic prompt optimization with "gradient descent" and beam search. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, 2023.
[5] Qingyan Guo, Rui Wang, Junliang Guo, Bei Li, Kaitao Song, Xu Tan, Guoqing Liu, Jiang Bian, and Yujiu Yang. Connecting large language models with evolutionary algorithms yields powerful prompt optimizers. arXiv preprint arXiv:2309.08532, 2023.
[6] Chrisantha Fernando, Dylan Banarse, Henryk Michalewski, Simon Osindero, and Tim Rocktäschel. Promptbreeder: Self-referential self-improvement via prompt evolution. arXiv preprint arXiv:2309.16797, 2023.
[7] Xinyuan Wang, Chenxi Li, Zhen Wang, Fan Bai, Haotian Luo, Jiayou Zhang, Nebojsa Jojic, Eric P Xing, and Zhiting Hu. Promptagent: Strategic planning with language models enables expert-level prompt optimization. arXiv preprint arXiv:2310.16427, 2023.
[8] Qinyuan Ye, Maxamed Axmed, Reid Pryzant, and Fereshte Khani. Prompt engineering a prompt engineer. arXiv preprint arXiv:2311.05661, 2023.
## A 付録
From the following text from a paper in the field of object detection, which proposes $\$$ proposed_model\}, please extract all sentences that mention $\$\{$ category_explanation\}.
When you extract multiple sentences, please combine them with " $\backslash n \backslash n "$.
Please output only the combined sentences as is without adding any additional explanations.
Please do not change any words from the text and do not add anything like quotation marks.
If there is no appropriate part, just answer "null" instead.
Text:
$\$\{$ text $\}$
図 2: 抜粋プロンプト(関連箇所の抜き出し用). \$\{proposed_model $\}, \$\{$ category_explanation $\}, \$\{$ text $\}$ には提案手法名,抽出対象カテゴリの説明,論文文章がそれぞれ插入される。
Please read the following text from a paper in the field of object detection and select $\$$ \{category_explanation \} from the following table for the proposed model $\$\{$ proposed_model\}.
The output format should be in JSON, where keys are the provided $\$$ category \}s in the table and values are either "true" meaning selected or "false" meaning not selected. Please include all the provided $\$\{$ category \}s as keys, and don't add any other $\$$ \{category \}.
Also, please don't answer "true" for $\$\{$ category \}s not explicitly mentioned in the text.
$\$\{$ item_table $\}$
Text:
$\$\{$ text $\}$
図 3:抽出プロンプト(タグの抽出用)$\{proposed_model $\}$, $\$$ category $\}, \$$ category_explanation $\}, \$\{$ item_table $\}, \$\{$ text $\}$ には提案手法名,抽出対象カテゴリ名,抽出対象カテゴリの説明,夕グ一覧,論文文章がそれぞれ挿入される。
## Combine all sentences related to the $\$\{$ category_explanation \} mentioned in the research paper associated with the object detection and $\$$ \{proposed_model \} by extracting and merging them using " $\backslash n \backslash n "$. Output only the merged sentences without any changes or additional details. If no relevant section is discovered, respond with "null".
Text:
$\$\{$ text $\}$
図 4: 最適化により獲得された抜粋プロンプト(関連箇所の抜き出し用). \$\{proposed_model $\}, \$$ category_explanation $\}, \$\{$ text $\}$ には提案手法名,抽出対象カテゴリの説明,論文文章がそれぞれ插入される.
Please analyze the given table and choose the most suitable $\$$ \{category_explanation \} from a paper about object detection that accurately describes the proposed model $\$\{$ proposed_model\}. Present the outcome in JSON format, where each $\$$ \{category \} mentioned in the table should be a key. Set the corresponding value as "true" if the $\$\{$ category $\}$ is explicitly mentioned in the text. If the $\$\{$ category \} is not mentioned, set the value as "false ". Make sure to include all the provided $\$$ \{category \}s as keys in the JSON without adding any extra $\$$ \{category \}. Additionally, only mark $\$\{$ category $\}$ s as "true" if they are explicitly mentioned in the text.
$\$\{$ item_table $\}$
Text:
$\$\{$ text $\}$
図 5: 最適化により獲得された抽出プロンプト(タグの抽出用). \$\{proposed_model $\}, \$$ category $\}, \$$ category_explanation $\}$, \$\{item_table $\}, \$\{$ text $\}$ には提案手法名,抽出対象カテゴリ名,抽出対象カテゴリの説明,タグ一覧,論文文章がそれぞれ挿入される.
図 6: プロンプト言い換え用プロンプト. \$\{text $\}$ には親プロンプトが挿入される. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A5-5.pdf | # 潜在的正規分布によるイベントの時間関係の推定
船曳 日佳里 ${ }^{1}$ 持橋 大地 ${ }^{2}$ 浅原 正幸 ${ }^{3}$ 小林 一郎 ${ }^{1}$
1 お茶の水女子大学 2 統計数理研究所 3 国立国語研究所
\{funabiki.hikari,koba\}@is.ocha.ac.jp daichi@ism.ac.jp masayu-a@ninjal.ac.jp
## 概要
本研究では,自然言語で表現されるイベントにおける時間的常識の推定タスクの精度向上を目的として,イベントの時間を Allen の区間代数 [1]を参考に,潜在的な正規分布として捉えてイベント間の時間関係を確率的に推定する.実験の結果,ベースラインと比較して 10\%以上の精度の向上を確認できた. また,正解に至らずとも正しい分布に近い分布を推定できたことも確認でき,これは時間関係認識において,確率分布を使用することの有用性を示している.
## 1 はじめに
自然言語処理タスクの多くで,イベントが持つ時間的常識の理解は重要である. しかし,イベントの時間を意味する直接的な表現は文章内では省略されやすい,イベントに含まれる時間の理解のためには,自然言語で表現されるイベントのさまざまな時間的側面について, 文脈的な知識を持っている必要がある.例えば,我々は「眠る」と「夢を見る」というイベントでは「眠る」の方が「夢を見る」よりも期間が長いことや,この二つのイベントが同時に起こることを理解できる. このような常識を踏まえた理解や推論をコンピュータにさせることは,挑戦的な課題となっている. これまで,時間幅や時間の順序関係をモデル化したタイムラインの構築 [2] や潜在的なイベントに関する時間関係にも注目する [3] など,様々なアプローチが模索されている.
近年,BERT [4]などの事前学習済み言語モデルが幅広い自然言語処理タスクで大きな成果を上げているが,これらのモデルは時間推論においては未だ性能が低いと言われており [5],汎用言語モデルを改善し時間的な常識におけるタスクの精度を上げる試みがなされている [6][7]. しかし, 日本語に関する時間的な常識を捉えた研究は未だ少ない. そこで,我々は日本語における時間的常識に基づ表 1: Allen の区間代数 [1] における時間順序の定義.
& $\mathrm{A}<\mathrm{B}$ \\
A met by B & $\mathrm{B}<\mathrm{A}$ \\
A starts B \\
A started by B & \\
く理解に焦点を当てて研究を進めており,本研究ではイベントの時間を潜在的な確率分布として捉え, イベント間の時間関係を推定する. 先行研究 [8] では単純なラベル分類タスクとしていたが,イベントの時間情報は離散的なラベルで一意に決められるものではなく,分布として捉えるべきだと考える. 本研究では,イベントの時間分布を相対的な対数時間における潜在的な正規分布で表現し,二つのイベントの時間分布から,そのイベント間の正しい時間関係を推定することを目指す。
## 2 提案手法
## 2.1 時間関係の定義とその確率化
Allen の区間代数 [1] は,区間の重なりについての代数である. Pustejovsky ら [9] は, 範囲代数で定義される 13 の関係をテキスト中のイベント間の時間順序関係を表現する TimeML を提案した。このうちいくつかの関係は言語によって識別して表出することが難しく,より単純化された時間順序ラベルが自然言語処理では用いられる. 本研究も先行研究にならい、区間代数に定義される 13 の関係を表 1 のように 5 つの時間順序ラベルに縮退したデータセット (3.1 節)を用いる。
図 1: 式 (1) の積分が表す確率(左図影領域),および式 (3) の指数分布(右図青)と式 (4) の指数分布 (右図オレンジ).
文章中の二つのイベント $\mathrm{A}, \mathrm{B}$ が起こった時刻を, それぞれ確率変数 $A, B$ で表すことにする。現在を原点 (0) とする相対的な対数時間軸において、正の方向を未来、負の方向を過去としょう. $A, B$ の正確な値を文章から確定することは不可能なため, それぞれ、この軸上の正規分布 $A \sim N\left(\mu_{1}, \sigma_{1}^{2}\right), B \sim$ $N\left(\mu_{2}, \sigma_{2}^{2}\right)$ として推定することを考える.
このとき、表 1 の時間順序において $A>B$ となる確率は, $A-B$ は正規分布 $N\left(x \mid \mu_{1}-\mu_{2}, \sigma_{1}^{2}+\sigma_{2}^{2}\right)$ に従うから,
$
\begin{aligned}
P(A>B) & =P(A-B>0) \\
& =\int_{0}^{\infty} N\left(x \mid \mu_{1}-\mu_{2}, \sigma_{1}^{2}+\sigma_{2}^{2}\right) d x
\end{aligned}
$
と表すことができる. 式 (1) が表す部分を図 1 左に示した. この確率が大きいほど,二つの分布が離れていることになる (図 2 を参照). この積分は, Python では math.erf() 関数で簡単に計算することができる. $B>A$ の場合も同様である.
また,A finishes B のように $A \geq B$ となる関係の場合,これは二つの分布の右端が揃っていることを意味している. そこで, 分布の右裾を累積密度が (たとえば) 0.95 になる点と考え、この点を $A$ について $x_{1}, B$ について $x_{2}$ とおくと, $x_{1}=x_{2}$ のときこの関係の確率は 1 で, $x_{1}$ と $x_{2}$ が離れるほど確率が下がると考えられる。よって, この確率を二乗距離 $\left(x_{1}-x_{2}\right)^{2}$ についての指数分布
$
P(A \geq B)=\operatorname{Exp}\left(\left(x_{1}-x_{2}\right)^{2} ; \beta\right)
$
で表現する. この様子を図 1 右に示した. 正規分布の性質から、累積密度 0.95 の点は $x=\mu+1.64 \sigma$ となるから,式 (2)は
$
\begin{aligned}
P(A \geq B) & =\beta \exp \left(-\beta\left(\left(\mu_{1}+1.64 \sigma_{1}\right)-\left(\mu_{2}+1.64 \sigma_{2}\right)\right)^{2}\right) \\
& =\beta \exp \left(-\beta\left(\mu_{1}-\mu_{2}+1.64\left(\sigma_{1}-\sigma_{2}\right)\right)^{2}\right)
\end{aligned}
$
で計算することができる. ここで $\beta$ はどれくらい過敏に反応するかを表す係数で,本研究では実験の結果から $\beta=1.2$ を採用した. $B \geq A$ も同様である.
また, $\mathrm{A}=\mathrm{B}$ の関係は発生時点 (の期待值) が近いことを意味するので, $\left(\mu_{1}-\mu_{2}\right)^{2}$ についての指数分布を用いて,次のように表現できる。
$
P(A=B)=\beta \exp \left(-\beta\left(\mu_{1}-\mu_{2}\right)^{2}\right)
$
本研究では, $\beta=1.5$ を採用している. こちらの $\beta$ の方が大きいということは, 図 1 からもわかるように,二つの $\mu$ の差が $\mathrm{A}=\mathrm{B}$ の関係においてより重要であることを表している.
## 2.2 イベントの定義
自然言語におけるイベントをどのように定義するかも,結果に大きく関わっている. 先行研究では, アノテーションを付与された動詞のみをイベントとして扱った. 本研究では助動詞が時間順序の推定に重要であると考え,形態素解析を行って,アノテー ションを付与された動詞とその後の助動詞までをイベントとして扱うこととした.
文末にアノテーションが付与された動詞がある場合,一文をイベントとして扱うことも有効であった. しかし, 本研究でのデータセットは, 二文以上で二つの文末の動詞の時間順序をアノテーションしている例が少なかったため,採用しなかった.また,動詞だけでなく事態性名詞もイベントの定義に関わると言われているが [10],日本語では事態性名詞が必ずしも特定のイベントを指さないことが多く,動詞述語のみに時間の情報が付与されている.本研究でも,動詞述語のみをイベントとして扱う。
## 2.3 学習
まず,文章全文の埋め込みおよび,その文章内の比較する二つのイベントの埋め込みを入力として, イベントの潜在的な時間を表す正規分布の平均 $\mu$ (時点)と分散 $\sigma^{2}$ (時間幅)を出力とするモデルを用意する。これは,一つのイベントに対して全結合層と非線形活性化関数から構成されるニューラルネットワーク構造となっている. モデルの出力から
表 2: 時間順序ラベルの分布.
表 3: DVD データセットに含まれる文章の例.
2.1 節で説明した時間関係確率の対数をとって損失とし,これに基づいたバックプロパゲーションを行って,モデルのパラメータを更新していく.
## 3 実験
## 3.1 使用データ
本研究で使用している DVD データセット [11] とは,DVDの音声データの書き起こし文に対して時間に関するラベルを付与したデータセットである。 DVD は海外の映画やドラマの日本語吹替版や日本のアニメなどを使用している。一つのイベントの絶対時制 (過去, 現在, 未来) と時間幅 (MOMENTARY, TIME,DATE,STATE),二つのイベントの時間順序 (表 1),隣接イベントの時間間隔 (MOMENTARY, TIME, DATE, STATE) の四種類の情報が付与されている.いずれも文脈のみで推定できないものは UNKNOWN のラベルが付与されている. 今回は時間順序の推定をタスクとし,1,508 個のデータのうち「UNKNOWN」のラベルを除いた 1,395 個のデー タを訓練データ 1,274 個,評価データ 121 個に分割して使用した。時間順序ラベルの分布を表 2 に,例文を表 3 に示す.
## 3.2 実験設定
言語モデルは東北大学の乾・鈴木研究室が公開している日本語 BERT モデル cl-tohoku/bertbase-japanese を採用し,最適化には Adam [12]を使用した。学習の際のハイパーパラメータの設定を表 4 に示した。評価指標としては Accuracy (Acc) と適合率(Pre)と再現率(Rec)を採用した. Accuracy は,予測が正しいサンプルの割合を示す指標である. 適合率は,正事例と予測したもののなかで正解データが正事例の割合を表す指標である. 再現率
表 4: 学習の際のハイパーパラメータ.
表 5: DVD データセットでの実験結果 (\%).*は他に 4 タスクのデータも使用した場合の参考値である。
図 2: 時間関係を正しく予測した例(左上: $\mathrm{A}<\mathrm{B}$ ,右上 : $\mathrm{B}<\mathrm{A}$ ,左下: $\mathrm{B} \leq \mathrm{A}$ ,右下: $\mathrm{A}=\mathrm{B})$.
は,正解データが正事例のもののなかで正事例と予測した割合を表す指標である.
## 3.3 実験結果
実験の結果を表 5 に示す。比較対象とするべースラインは,マルチタスク学習のフレームワークである MT-DNN(Multi-Task Deep Neural Networks)[13] を使用して DVD データセットの時間順序タスクでシングルタスク学習をした結果である.また,先行研究 [8] で最も精度がよかった結果として, DVD データセットの全タスク(時制,時間幅,時間順序)と時間的常識に関する英語のデータセット MC-TACO [14] を日本語に翻訳したデータセット [15] の Duration(時間幅)と Frequency(頻度)の五つのタスクの組み合わせでマルチタスク学習をした結果を参考として記載する。 さらに,モデルが出力した二つの正規分布の重なりが大きいと $\mathrm{A}=\mathrm{B}$ というようにし,分布同士の重なった部分の面積を見てラベルを予測して学習させた結果も比較対象として記載した。また,正しく予測した例の一部を図 2 に示す.
結果を見ると,ベースラインや正規分布の重なりを利用した分類よりも Accuracy の向上が見られた。 マルチタスク学習には少し及ばない結果であるが,
図 3: $\mathrm{A} \leq \mathrm{B}$ と正しく予測した例 (左図) および, $\mathrm{A}=\mathrm{B}$ と“誤って”予測した例(右図).
これは他タスクの情報を使用していないことから当然といえる. 不正解の結果でも実際に予測した分布を図示すると, 正しい分布のように感じられる例もあった. さらに,正解ラベルが $\mathrm{B}<\mathrm{A}$ である文章が変更前と変わらず $\mathrm{B} \leq \mathrm{A}$ と予測していても,図示すると $\mathrm{B}<\mathrm{A}$ に近づいた分布である例もあった。このように,どのような推定が行われたのか伺えるという点でも,ラベル分類に確率分布を使用するということは有用であると考えられる。また,適合率は下がってしまっているが,適合率と再現率のバランスが他の分類よりもよいことが確認できる.
## 4 分析
正解ラベル: $\mathrm{A} \leq \mathrm{B}$ に対する実際の正例と負例を図 3 に示す. 左図は,「わかった(イベントA)わ。 はっきり言う (イベントB)」から推定した二つの正規分布を図示した. これは, 正しく $\mathrm{A} \leq \mathrm{B}$ と分類できた例で,分布も正しく推定できているように見受けられる。
右図は,「彼女の話を聞いて(イベント A)適当な言葉を返す(イベント B)」から推定した二つの正規分布を図示した. これは不正解で $\mathrm{A}=\mathrm{B}$ と予測してしまった例である. しかし,分布を確認したところ,「話を聞く」よりも「適当な言葉を返す」の時間幅が顕著に短く推定されている点や時点の前後は合っているものの,同時に起こり得ることを捉えている点から,後者の方が人間が常識的に捉えるような正しい分布のように思われる. このように正しい時間分布から予測された時間関係とアノテーションされた時間関係が一致しない例も確認された.
また,実験の予測結果の詳細を表 6 , 表 7 に示す.横の行に正解ラベルのデータ数, 縦の列に予測ラベルのデータ数を記載した。すなわち,太字が正解ラベルを予測した数となる。()内はデータの個数を記載する.
この結果から,時間関係式を用いた学習の方は表 6: 分類器を用いたベースライン実験結果の詳細.
& & & & \\
$\mathrm{~B}<\mathrm{A}(24)$ & 4 & $\mathbf{1 0}$ & 2 & 0 & 8 \\
$\mathrm{~A} \leq \mathrm{B}(24)$ & 5 & 4 & $\mathbf{5}$ & 1 & 9 \\
$\mathrm{~B} \leq \mathrm{A}(24)$ & 2 & 3 & 1 & $\mathbf{1}$ & 17 \\
$\mathrm{~A}=\mathrm{B}(25)$ & 2 & 2 & 2 & 0 & $\mathbf{1 9}$ \\
表 7: 時間関係式を用いた実験結果の詳細.
& & & & \\
$\mathrm{~B}<\mathrm{A}(24)$ & 0 & $\mathbf{8}$ & 2 & 8 & 6 \\
$\mathrm{~A} \leq \mathrm{B}(24)$ & 6 & 0 & $\mathbf{1 6}$ & 0 & 2 \\
$\mathrm{~B} \leq \mathrm{A}(24)$ & 0 & 9 & 1 & $\mathbf{1 0}$ & 4 \\
$\mathrm{~A}=\mathrm{B}(25)$ & 0 & 0 & 4 & 4 & $\mathbf{1 7}$ \\
$\mathrm{A}<\mathrm{B}$ と $\mathrm{A} \leq \mathrm{B}$ のように近い時間関係のものはお互いのデータからも予測されやすく, $\mathrm{A}<\mathrm{B}$ と $\mathrm{B}<\mathrm{A}$ のように遠い時間関係のものは予測されにくいことが確認できる. また,データセットのラベル分布に偏りがあるにもかかわらず(表 2),ほぼ満遍なく予測をできていることも確認できる.分類器を用いたべー スラインの実験結果を確認すると,ラベルごとの訓練データ数にかなり依存しているように見受けられる. 不正解でも近い時間関係を予測しているのではなく,データ数が多いものを予測しているようで, その違いは顕著である.
## 5 おわりに
本研究では,自然言語で表現されるイベントにおける時間的常識の推定タスクにおいて,イベントの潜在的な時間を正規分布として捉えてイベント間の時間関係を推定する実験を行った.実験の結果,時間関係を式で表現して学習させることでより正しい時間分布を推定して,イベント間の時間関係推定の精度向上に有用であることを確認できた.
今後の課題として,正しい時間分布を正しい時間関係と分類できるような評価方法の作成があげられる. また,本研究では使用しなかった同データセットの時制と時間幅の情報を用いたよりリッチな学習を検討しているが,一つでも「UNKNOWN」のラベルが付与されたデータを除いてしまうと,データ数がかなり少なくなってしまう懸念がある. 現在はデータ数が限られているため,よりデータ数の多いデータセットの使用も検討していきたい.
## 謝辞
本研究は JSPS 科研費 18 H05521 の助成を受けて行ったものです.
## 参考文献
[1] James F. Allen. Maintaining knowledge about temporal intervals. Commun. ACM, Vol. 26, No. 11, p. 832-843, nov 1983.
[2] Siddharth Vashishtha, Benjamin Van Durme, and Aaron Steven White. Fine-grained temporal relation extraction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 29062919, Florence, Italy, July 2019. Association for Computational Linguistics.
[3] Ben Zhou, Kyle Richardson, Qiang Ning, Tushar Khot, Ashish Sabharwal, and Dan Roth. Temporal reasoning on implicit events from distant supervision. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1361-1371, Online, June 2021. Association for Computational Linguistics.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACLHLT2019, pp. 4171-4186, June 2019.
[5] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of NLP models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics.
[6] Ben Zhou, Qiang Ning, Daniel Khashabi, and Dan Roth. Temporal Common Sense Acquisition with Minimal Supervision. In Proc. of the Annual Meeting of the Association for Computational Linguistics (ACL), 2020.
[7] Mayuko Kimura, Lis Kanashiro Pereira, and Ichiro Kobayashi. Toward building a language model for understanding temporal commonsense. In Proceedings of the 2nd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 12th International Joint Conference on Natural Language Processing: Student Research Workshop, pp. 17-24, Online, November 2022. Association for Computational Linguistics.
[8] 船曳日佳里, KANASHIRO Pereira Lis, 木村麻友子, 浅原正幸, 越智綾子, CHENG Fei, 小林一郎. マルチタスク学習を用いた時間を認識する汎用言語モデルの構築. 人工知能学会全国大会論文集, Vol. JSAI2023, pp. 3A1GS603-3A1GS603, 2023.
[9] James Pustejovsky, Kiyong Lee, Harry Bunt, and Laurent Romary. ISO-TimeML: An international standard for semantic annotation. In Nicoletta Calzolari, Khalid Choukri, Bente Maegaard, Joseph Mariani, Jan Odijk, Stelios Piperidis, Mike Rosner, and Daniel Tapias, editors, Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010. European Language Resources Associ- ation (ELRA).
[10] Feng Pan, Rutu Mulkar, and Jerry R. Hobbs. Learning event durations from event descriptions. In Nicoletta Calzolari, Claire Cardie, and Pierre Isabelle, editors, Proceedings of the 21 st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, pp. 393-400, Sydney, Australia, July 2006. Association for Computational Linguistics.
[11] 浅原正幸, 越智綾子, 鈴木彩香. 時間情報アノテー ションデータ. 『言語による時間生成』論文集・報告集, 2024. to appear.
[12] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3 rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015.
[13] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics.
[14] Ben Zhou, Daniel Khashabi, Qiang Ning, and Dan Roth." going on a vacation" takes longer than" going for a walk": A study of temporal commonsense understanding. arXiv preprint arXiv:1909.03065, 2019.
[15] 船曳日佳里, 木村麻友子, KANASHIRO Pereira Lis, 小林一郎. 時間的常識を理解する日本語汎用言語モデルの構築へ向けて. 人工知能学会全国大会論文集, Vol. JSAI2022, pp. 2B4GS604-2B4GS604, 2022. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A6-1.pdf | # Swallow コーパス: 日本語大規模ウェブコーパス
岡崎 直観 ${ }^{1}$ 服部翔 ${ }^{1}$ 平井 翔太 ${ }^{1}$ 飯田 大貴 ${ }^{1,2}$ 大井 聖也 ${ }^{1}$
藤井 一喜 ${ }^{1}$ 中村 泰士 ${ }^{1}$ Mengsay Loem ${ }^{1}$ 横田 理央 ${ }^{1}$ 水木 栄 1,3
1 東京工業大学情報理工学院 2 株式会社レトリバ 3 株式会社ホットリンク \{okazaki@c, kakeru.hattori@nlp.c, shota.hirai@nlp.c, taiki.iida@nlp.c, masanari.ohi@nlp.c, kazuki.fujii@rio.gsic, taishi.nakamura@rio.gsic, mengsay.loem@nlp.c, rioyokota@gsic, sakae.mizuki@nlp.c\} .titech.ac.jp
## 概要
これまで、オープンな日本語大規模言語モデルの学習には CC-100、mC4、OSCARなどのコーパスの日本語部分が用いられてきた。ところが、これらのコーパスは日本語テキストの品質を重視して作られた訳ではない。本研究では Common Crawl のアー カイブ(2020 年から 2023 年にかけて収集された 21 スナップショット分、約 634 億ページ)から日本語のテキストを独自に抽出・精錬し、約 3,121 億文字 (約 1.73 億ページ)からなる日本語ウェブコーパスを構築した。この規模は、CC-100 (約 258 億文字)、 $\mathrm{mC4}$ (約 2,397 億文字)、OSCAR 23.10(約 740 億文字)を抜き、日本語の言語モデルの学習コーパスの中で、商用利用が可能なものとしては最大である。
## 1 はじめに
2022 年暮れに OpenAI が公開した ChatGPT は、汎用的な人工知能のマイルストーンとして世界に大きな痕跡を残した。自然言語処理や人工知能の研究開発の底上げ、LLM の知能のメカニズムの解明、海外の一握りの企業に依存してしまう安全保障上のリスク、信頼できる人工知能の実現など、動機は様々であるが、2023 年は日本語に強い LLM の開発・発表が相次いだ。ところが、日本語の LLM の学習に用いるコーパス(学習データ)は海外で開発されたものを採用する場合が多く、日本語に特化し、透明性の高いコーパスが利用されているとは言い難い。
表 1 にLLM の学習に用いられる代表的なコーパスを挙げた。日本語のテキストを含み、かつ学習後の言語モデルの利用に制限が付かないコーパスは、 CC-100、mC4、OSCAR 23.01 が有力候補となるが、 Common Crawl の WET 形式のテキストを処理したものであるため、HTML からテキストへの変換にお
2020-40から2023-23 (63,352,266,406ページ)
精密な日本語テキスト判定よりも約14倍遅い処理
2,686,080,919ページ(収集したページの4.2\%)
646,238,066ページ(日本語ページの24.1\%)
185,766,463ページ(日本語のページの6.92\%)
173,350,375ページ(日本語のページの6.45\%)
句点の変更 $(0.17 \%)$ 、読点の変更 $(0.64 \%)$
フッターが除去された文書は全体の7.3\%
図 1 Swallow コーパスの構築手順
いてノイズが含まれることがある。また、これらは多言語コーパスとして構築されており、日本語は数多くある言語の一つであるため、日本語に特化してテキストの品質を高めるような工夫は取り入れられていない。さらに、日本語の LLM は評価データや評価指標の確立途上にあるため、コーパスの開発も暗中模索の状況にある。そこで、本研究では日本語の LLM の学習に活用されることを念頭に、大規模かつ品質の高い日本語のウェブコーパスを構築することを目指す。本研究で開発された Swallow コー パスは、Common Crawl の 21 件のスナップショット (CC-MAIN-2020-40 から CC-MAIN-2023-23 まで)から作られており、クリーニング後のコーパスの規模は 173,350,375 ページ、312,093,428,689 文字である。本研究で構築されたコーパスで Llama 2 の継続学習を行ったモデルを公開している1)。
## 2 手法
Swallow コーパスの構築手順を図 1 に示した。構築手順はおおよそ以下の 3 段階に分かれている。
1) https://tokyotech-llm.github.io/swallow-llama
表 1 大規模言語モデルの事前学習に用いられる代表的なコーパス。BL、BW、BT、TT はそれぞれ、billion letter (10 億文字)、billion word (10 億単語)、billion token(10 億トークン)、trillion token(1 兆トークン)の略である。英語のコーパスの規模は論文等での公表値をそのまま採用した。ClueWeb22 の英語の規模は元論文 [9] に基づくが、英語以外の言語の数も混ざっていると想定されるため、実際はこの $40 \%$ 程度と思われる。日本語のコーパスの規模は、本研究でユニコー ドの文字数を実測した。テキスト抽出の WET は Common Crawl が配布しているテキスト抽出結果(WET 形式)を表す。
1. Common Crawl の WARC ファイルから日本語テキストを抽出する(2.1 節)
2. 品質フィルタリングおよび重複除去で日本語テキストを厳選する(2.2 節、2.3 節、2.4 節)
3. テキスト内の正規化を行う(付録 C 節)
本構築手順は RefinedWeb [7] を参考に、処理を日本語向けにカスタマイズした。
## 2.1 日本語のテキスト抽出
Common Crawl のスナップショットは Amazon S3 のバケットとして保管されており、S3もしくはウェブサーバ2) 経由でアクセスできる3)。本研究では WARCIO4) ライブラリを用いて、WARC 形式のデータから HTML コンテンツを抽出した。Common Crawl 全体の約 5\%程度が日本語で書かれたウェブページと見積もられる5)ため、うまく日本語のウェブペー ジだけを選別してコーパス構築処理を実行できれば、処理時間を約 95\%節約できる。ところが、言語判定の精度を高めるためには、HTML のマークアップを取り除いてから言語判定器にかけることが望ましく、テキスト抽出を先に適用してから言語判定を行えばよいが、言語判定よりもテキスト抽出の方が処理時間を要するので、この順番でコーパス構築を行ってしまうと、処理時間を削減できない。
2) https://data.commoncrawl.org/
3) https://commoncrawl.org/get-started
4) https://github.com/webrecorder/warcio
5) https://commoncrawl.github.io/cc-crawl-statistics/
そこで、図 1 の「2. 迅速な日本語テキスト判定」 では、テキスト抽出を行わず迅速な方法で日本語である可能性が高いウェブページを選別する(詳細は付録 A 参照)。この手順で候補として選ばれたウェブページに対して、Trafilatura $\left.{ }^{6}\right)$ で「3. テキスト抽出」を行い、「4. 精密な日本語テキスト判定」で言語判定を精密に行う(詳細は付録 B 参照)。インテル Xeon Gold 6130 プロセッサ(2.1GHz)の $1 \mathrm{CPU}$ を用いたベンチマーク実験では、迅速な日本語テキスト判定により、WARC ファイルから日本語テキストを取り出す処理が約 15 倍高速化された。また、whatlang-corpora ${ }^{7} ( 6,718,883$ 件)を用いた評価実験では、精密な日本語テキスト判定の適合率は 0.999、再現率は 0.979、F1 スコアは 0.989 であった。本節で説明した日本語テキストの抽出処理により、2,686,080,919 ページ、3,684,320,219,695 文字の日本語テキストが得られた。
## 2.2 品質フィルタリング
この処理では、(1) 繰り返しの多いウェブページの除去、(2) 品質のよい日本語の文章を含むウェブページの選別、(3) 有害な表現を含むと思われるウェブページの除去、を行う。(1)の処理として、本研究ではRae ら [11] のルールをそのまま採用し、重複した表現が多い文書を削除した8)。
続いて、(2)の日本語としての品質については独自にルールを設計し、次のいずれかを満たす文書は品質が低いと判断して、削除した(括弧内は条件)。
- 文字数 (400 文字未満)
・平仮名の文字の割合 ( 0.2 未満)
・カタカナの文字の割合 ( 0.5 以上)
- 日本語の文字 (平仮名、カタカナ、漢字、句読点) の割合 ( 0.5 未満)
- 文書中の文の文字数の平均 (20 未満、もしくは 90 よりも多い場合)
・最も長い文の文字数 (200 文字以上)
- 文末が省略記号で終わる文の割合 (0.2 以上)
なお、これらのルールは削除される/残される文書を目視で確認しながら、著者らが人手で調整した。 (3) の有害な表現を含むと思われるウェブページの除去では、NG 表現を含む割合が文字数単位で 0.05 以上になる場合、そのテキストを削除した。
この品質フィルタリングにより、コーパスが $646,238,066$ ページ $(1,202,868,044,631$ 文字) に絞り込まれた。フィルタリング前後のテキストを目視で比較すると、 $\mathrm{EC}$ サイトなど、商品名やキーワードが繰り返されているぺージが削除され、見た目にもテキストの品質が良くなったことを実感できる。
## 2.3 重複除去
Common Crawl は同一のウェブサイトを異なる時期に巡回・収集しているため、同一のウェブサイト上で加えられた軽微な修正や、転載などで内容が類似したウェブサイトを含む。現段階では、LLMを学習するときはコーパスの丸覚えを防ぐため、同じテキストでモデルの学習を繰り返すことは避けるべきと言われている。そこで、LLM の事前学習用のコーパスでは、重複したテキストを除去する処理、 すなわち重複除去(deduplication)が行われる。ところが、億を超える数の文書の組に対して、ジャッカード係数やコサイン係数でテキストの類似度を総当たりで計算し、類似度の高いテキストを除去するという処理は膨大な時間を要する。
そこで、本研究では Lee らの研究 [12] を参考にして、MinHash [13]による重複除去を行った。MinHash を重複検出に用いるときは、MinHash 値を $b$ 個連結したもの(バケットと呼ばれる)を $r$ 個作成しておき、2つの文書のバケットの組を $r$ 回比較し、その中で一組でも完全一致する場合、2つの文書は重複で
あると見なすアルゴリズムを採用することが一般的である。本研究では、 $b=r=20$ とし、 $K=b r=400$個のハッシュ值を用いる設定を採用し、ジャッカー ド係数が 0.9 である文書の重複を約 $92.5 \%$ の確率で検出できるように設定した99)。
本研究では、内容に重複があるウェブサイトの組がある場合、クローリングされた日時が新しいものを残し、古い方を削除した。今回実験に利用したスナップショットでは、2023 年 3 月から 6 月にかけて収集されたウェブページの残存率(重複除去で削除されない割合)は77.8~87.9\%であるのに対し、 2023 年 2 月以前に収集されたウェブページの残存率は 40\%未満に低下し、2020 年頃に収集されたウェブページの残存率は $20 \%$ を下回った。この重複文書の除去処理により、コーパスの量は $185,766,463$ ペー ジ $(353,191,872,805$ 文字) に減少した。
## 2.4 ホスト名に基づくフィルタリング
2.2 節において、ページ毎に $\mathrm{NG}$ 表現を含む割合を測定し、閾値を超えたものを削除していたが、より安全側に倒すためにホスト名の NG リストを作成し、ホスト名による削除を行った。以下の基準を満たすホスト名からなるブロックリストを作成した。
1. UT1 blocklist ${ }^{10)}$ に収録されている
2. 出会い系サイトのサービス名を一度でも含むページの割合が 0.001 を超える場合
3. $\mathrm{NG}$ 表現を含む割合(文字数による割合)が 0.005 を超える場合 ${ }^{11)}$ 。
4. *wikipedia.org
5. *.5ch.net
ブロックリストの作成では網羅性を重視し、適合率を犠牲にしているため、有害ではないウェブサイトもブロックリストに登録されることがある ${ }^{12)}$ 。したがって、この処理でブロックリストに登録されたホストが有害であるとは限らない。このフィルタリング処理で、コーパスの量は $173,350,375$ ページ (312,674,522,606 文字)となった。
9)本研究では、文字の 5 -gram で特徴量を構成した。
10) https://dsi.ut-capitole.fr/blacklists/
11)ただし、文脈によっては有害ではない表現(「児童」など)や、別の単語の一部として使われる文字列(「ピエロ」 など)があるため、ホワイトリストの表現の部分文字列は割合の計算から除外した。
12)例えば、あるホストの特定のディレクトリやユーザのみが有害な表現を使っている場合や、有害ではない文脈で NG 表現を使っているテキストを含むホストは、ブロックリストに登録されてしまう恐れがある。
表 2 各コーパスで継続事前学習を行ったモデルの日本語ベンチマークデータでの評価結果
## 3 実験
本研究で構築した日本語ウェブコーパスを用いて、日本語を強化した LLMを構築する実験を行った。今回は、Meta 社が公開している Llama 2 13B (base) モデル ${ }^{13)}$ に対して、日本語のコーパス等で継続事前学習を行った。LLM の学習には、 Megatron-LM ${ }^{14)}$ を採用した。日本語の学習コーパスの違いによる LLM の性能の差を検証するため、ClueWeb22 [9] と llm-jp-corpus v1.0.15)でも継続事前学習を行った。継続学習のコーパスには日本語 Wikipedia、RefinedWeb、The Pile (arXiv) を混ぜた。正確には、4,096 トークンの系列長かつ 1,024 のバッチサイズで 25,000 のステップ数で継続事前学習をすることを想定し、約 104.9 BT の学習データを準備した。日本語と英語のトークンの比率を 9:1 とし、学習データの $5 \%$ RefinedWeb の英語テキスト、 $5 \%$ を The Pile の arXiv 論文テキスト(英語)とし、残りの 90\%を日本語のテキストとした。その $90 \%$ の日本語テキストの内訳は、日本語 Wikipediaが約 $1.6 \mathrm{BT} を$占め、残りを日本語のウェブコーパスで埋めた。
## 3.1 評価データセット
本研究では,評価ベンチマークとして $11 \mathrm{~m}-\mathrm{jp}-$ eval [14] と lm-evaluation-harness ${ }^{16)}$ を用いた。llm-jpeval は多値選択式質問応答 (MC: multiple choice)、自由記述式質問応答 (QA: queston answering)、機械読解 (RC: reading complehension)、自然言語推論 (NLI: natural language inference)のタスクからなるべンチマークである。MC は JCommonsenseQA [15]、QA は JEMHopQA [16] と NIILC [17]、RC は JSQuAD [15] が用いられている。NLIについては、言語モデルの推定ラベルが偏る傾向があり、その偏ったラベルが正解ラベルに偶然一致する場合にスコアが高くなる傾向が見られたため、今回の実験結果から除外す
ることにした。Im-evaluation-harness は、Stability AI が開発したものの一部を用いた。今回は、自動要約タスクとして XL-Sum [18]、算術推論タスクとして MGSM [19] のそれぞれの日本語サブセットを用いた。さらに、日英・英日機械翻訳として WMT 2020 [20]を用いた。
## 3.2 評価結果
表 2 に評洒結果を載せた。「(ベースモデル)」は継続事前学習を行わず、公開されている Llama 2 13B (base)をそのまま評価した時の結果である。いずれのコーパスを継続事前学習に用いても、全データセット平均で約 0.05〜0.07 ポイントのスコアの上昇が見られることから、継続事前学習の効果が確認できた。全データセットのスコアの平均をとると、本研究のコーパスで継続追加学習を行ったモデルの性能が最も高く、1lm-jp-corpus v1.0.1 C ClueWeb22 が同程度のスコアで後に続く結果であった。
## 4 おわりに
本論文では、Common Crawl から日本語のテキス卜を独自に抽出・精錬し、約 3,121 億文字(約 1.73 億ページ)からなる日本語ウェブコーパス Swallow を構築した。構築したコーパスの品質を確認するため、Llama 2 13B の継続事前学習を行ったところ、既存のコーパスを用いた場合と比べて同等かそれを上回る性能の LLM を構築できた。
今後の課題は、有害表現や差別などの LLM の安全性に関する取り組みが挙げられる。現状では、単語リストやホスト名リストによる対応を行っているが、より信頼性の高いフィルタリング手法を確立し、有害なテキストを確実に除去しつつ、コーパスの規模を大きくしたい。また、本研究では継続事前学習を行ったが、今後は日本語の LLM をフルスクラッチで学習し、コーパスを評価したい。構築したコーパスで学習したモデルを質問応答や要約などの下流タスクで評価したが、これで LLM の「地頭の良さ」を測定できるのか疑問が残るので、事前学習コーパス単体での評価方法を検討していきたい。
## 謝辞
この成果は、国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです。また、LLM の継続事前学習の実験では、国立研究開発法人産業技術総合研究所が構築・運用する AI 橋渡しクラウド (ABCI: AI Bridging Cloud Infrastructure)の「大規模言語モデル構築支援プログラム」の支援を受けました。学習した LLM の評価実験では、LLM-jp(LLM 勉強会)で開発されているデータや公開されている知見を活用しました。
## 参考文献
[1] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In Proc. of LREC, pp. 4003-4012, 2020.
[2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
[3] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained text-totext Transformer. In Proc. of NAACL-HLT, pp. 483-498, 2021.
[4] Julien Abadji, Pedro Ortiz Suarez, Laurent Romary, and Benoît Sagot. Towards a cleaner document-oriented multilingual crawled corpus. In Proc. of LREC, pp. 4344-4355, 2022.
[5] Leo Gao, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster, Jason Phang, Horace He, Anish Thite, Noa Nabeshima, Shawn Presser, and Connor Leahy. The Pile: An 800GB dataset of diverse text for language modeling. arXiv:2101.00027, 2020.
[6] Hugo Laurençon, Lucile Saulnier, Thomas Wang, Christopher Akiki, Albert Villanova del Moral, Teven Le Scao, et al. The BigScience ROOTS corpus: A 1.6TB composite multilingual dataset. arXiv:2303.03915, 2023.
[7] Guilherme Penedo, Quentin Malartic, Daniel Hesslow, Ruxandra Cojocaru, Alessandro Cappelli, Hamza Alobeidli, Baptiste Pannier, Ebtesam Almazrouei, and Julien Launay. The RefinedWeb dataset for Falcon LLM: Outperforming curated corpora with web data, and web data only. arXiv:2306.01116, 2023.
[8] Luca Soldaini, Rodney Kinney, Akshita Bhagia, Dustin Schwenk, David Atkinson, Russell Authur, Khyathi Chandu, Jennifer Dumas, Li Lucy, and Xinxi Lyu et al. Dolma: An open corpus of 3 trillion tokens for language model pretraining research. Technical report, Allen Institute for AI, 2023.
[9] Arnold Overwijk, Chenyan Xiong, Xiao Liu, Cameron
VandenBerg, and Jamie Callan. ClueWeb22: 10 billion web documents with visual and semantic information. arXiv:2211.15848, 2022
[10] together.ai. Redpajama-data-v2: An open dataset with 30 trillion tokens for training large language models. https: //www. together.ai/blog/redpajama-data-v2, 2023.
[11] Jack W. Rae, Sebastian Borgeaud, Trevor Cai, Katie Millican, Jordan Hoffmann, Francis Song, John Aslanides, Sarah Henderson, Roman Ring, and Susannah Young $e t$ al. Scaling language models: Methods, analysis \& insights from training Gopher. arXiv:2112.11446, 2021.
[12] Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, and Nicholas Carlini. Deduplicating training data makes language models better. In Proc. of ACL, pp. 8424-8445, 2022.
[13] Andrei Z Broder. On the resemblance and containment of documents. In Proceedings of the Compression and Complexity of Sequences 1997, pp. 21-29, 1997.
[14] Namgi Han, 植田暢大, 大猋匡俊, 勝又智, 鎌田啓輔, 清丸寛一, 児玉貴志, 菅原朔, Bowen Chen, 松田寛, 宮尾祐介, 村脇有吾, 劉弘毅. llm-jp-eval: 日本語大規模言語モデルの自動評価ツール. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[15] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proc. of LREC, pp. 2957-2966, 2022.
[16] 石井愛, 井之上直也, 関根聡. 根拠を説明可能な質問応答システムのための日本語マルチホップ $\mathrm{QA}$ データセット構築. 言語処理学会第 29 回年次大会 (NLP2023), pp. 2088-2093, 2023.
[17] 関根聡. 百科事典を対象とした質問応答システムの開発. 言語処理学会第 9 回年次大会 (NLP2003), pp. 637-640, 2003.
[18] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-sum: Large-scale multilingual abstractive summarization for 44 languages. In Findings of ACL-IJCNLP 2021, pp. 4693-4703, 2021.
[19] Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, and Jason Wei. Language models are multilingual chain-ofthought reasoners. In Proc. of ICLR, 2023.
[20] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, and Eric Joanis et al. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the Fifth Conference on Machine Translation, pp. 1-55, Online, 2020. Association for Computational Linguistics.
[21] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv:1412.6980, 2014.
[22] Tri Dao, Dan Fu, Stefano Ermon, Atri Rudra, and Christopher Ré. FlashAttention: Fast and memory-efficient exact attention with IO-awareness. In Proc. of NeurIPS, Vol. 35, pp. 16344-16359, 2022.
## A 迅速な日本語テキスト判定
本研究では、以下の二つの条件のいずれかが満たされる場合のみ、テキスト抽出および言語判定を行った。
1. <html lang="ja">のように、日本語の HTML コンテンツであることが明示されていること
2. <title>タグの中身に対して精密な日本語テキスト判定器 (B 節)を適用し、日本語と判定されること
このルールの妥当性を評価するため、後段の精密な日本語テキスト判定と迅速な日本語テキスト判定の結果を比較した。具体的には、精密な言語判定の結果が正しいと仮定し、 CC-MAIN-2023-23 の 10 個の WARC ファイル17)(全 394,192ペー ジ、gzip 圧縮で計 $12,052,992,707$ バイト)を用い、迅速な言語判定の精度を測定したところ、適合率は 0.888 、再現率は $0.967 、 F 1$ スコアは 0.926 であった。この結果から、迅速な日本語判定は日本語のウェブサイトの約 $3.3 \%$ を捨ててしまう可能性があるが、適合率が比較的高いことから日本語以外の言語のウェブページのテキスト抽出の処理時間を削減できる。
## B 精密な日本語テキスト判定
本研究では文字 $n$-gram を特徴量に用いた線形識別器で言語判定器を構築した。線形識別器の学習データとして、多言語の Wikipedia テキストを採用し、学習データから以下の基準のいずれかを満たす文字ユニグラム、バイグラム、トリグラムで特徴空間を構成した。
1. 全言語の学習データで出現頻度が上位 400,000 件以内
2. 日本語の学習データで出現頻度が上位 400,000 件以内
3. 中国語の学習データで出現頻度が上位 100,000 件以内
4. 各言語の学習データで出現頻度が上位 10,000 件以内
基準 (1)だけを用いると、日本語の文字に関する特徵量が十分に得られない可能性があるため、基準 (2)で日本語に特化した特徴量の獲得を狙った。基準 (3) は日本語と漢字を共有している中国語との区別をつけやすくすることを狙った。基準 (4) は、学習データ量が十分ではない言語のテキストに対する判定結果を安定化させる狙いがあった。特徴量の異なり数は 821,484 である。
言語判定器の学習では、Wikipedia CirrusSearch ${ }^{18)}$ の 2023 年 6 月 12 日版のデータを用いた。言語判定器の学習では、ダウンロー ドしたデータの $1 / 20$ の量を用い19)、残ったデータから開発デー タと評価データを 100,000 件ずつサンプリングした。線形識別器の学習には、LIBLINEAR ${ }^{20} 2.46$ で L2 正則化 L2 損失サポートベクトルマシンを学習し、開発データ上で言語判定精度が最も高くなる正則化係数を探索し、 $C=10$ に設定した。
## C テキスト内の正規化
構築したコーパスの句読点を「、」に統一するため、以下のルールに基づいて句読点の「,.」を「、」に置換した。
1. 記号「」」およ゙「,」の文書内の出現回数を調べ、「,」の方が多く出現する場合は、「,」を「、」に置換する。ただし、直前が英数字である「,」は「、」への置換の対象から外す。
2. 記号「。」および「.」の文書内の出現回数を調べ、「.」の方が多く出現する場合は、「.」を「。」に置換する。ただし、直前が英数字である「.」は「。」への置換の対象から外す。「。」と「.」、、」と「,」のどちらの句読点が使われるかは、文書内で一貫していると仮定し、句読点の置換を行うかどうか判断することで、誤って置換してしまうケースを削減している。また、句点と読点、それぞれ独立に出現回数を比較することで、「、.」や 「,。」などの句読点の正規化に対処している。この句読点の正規化処理により、290,318 文書 $(0.17 \%)$ の句点が「.」から「。」に、 $1,107,319$ 文書 $(0.64 \%)$ 読点が「,」から「、」に変更された。
17) CC-MAIN-20230527223515-20230528013515-0000?.warc.gz の 0 から 9 までを用いた。
18) https://dumps.wikimedia.org/other/cirrussearch/
19)量が多すぎるため、学習データ量を $1 / 20$ に削減した。
20) https://www.csie.ntu.edu.tw/ cjlin/liblinear/
なお、テキスト抽出に用いているTrafilaturaは、ウェブペー ジのナビゲーションやフッターのテキストを除去してくれるが、 コーパス中で除去しきれなかったフッターテキストを見かけることがある。そこで、テキストの末尾 3 行に対して、「この記事へのトラックバック一覧」や「無断転載を禁ず」「クリック」などの表現を文字単位で $30 \%$ 以上含む場合は、テキストから削除した。このフッターの除去処理により、12,617,787 文書(7.3\%)のテキストの末尾にあるフッターが除去された。
## D 継続事前学習の詳細
## D. 1 学習環境
継続事前学習では、産総研の $\mathrm{AI}$ 橋渡しクラウド $(\mathrm{ABCI})$ を利用した。混合精度(bfloat16)を採用し、NVIDIA A100ノードを複数台使用し、分散並列学習を行った。各ノードは NVIDIA A100 40GB GPU を 8 基を搭載し、ノード間は InfiniBand HDR にて接続されている。
## D. 2 分散学習手法
効率的な学習を行うためにデータ並列 (data parallelism)、テンソル並列化 (tensor parallelism)、パイプライン並列化 (pipeline parallelism)を統合した 3D 並列化(3D parallelism)を採用し、高い計算効率と効率的なメモリ利用を目指した。モデルの学習には、8ノード(64 GPU)または 16 ノード(128 GPU)を利用し $た^{21)}$ 。パイプライン並列により、Transformer のブロック(層)単位でパラメータを複数の GPU に分散配置し、さらにテンソル並列化で層内のパラメータを複数の GPU に分散配置することで、 13B のモデルの学習を 1 GPU あたり 40GB のメモリに載るようにしながら、分散並列学習を行った。さらに、Megatron-LM の分散最適化(distributed optimizer)を使用することで、パラメータの最適化のために保持すべき情報をデータ並列間で分散して保持し、最適化に必要なメモリ消費量を削減した。8ノードの実験環境では、データ並列数を $8(\mathrm{DP}=8)$ 、テンソル並列数を $2(\mathrm{TP}=2)$ 、パイプライン並列数を $4(\mathrm{PP}=4)$ とし、さらに系列並列化(sequence parallelism)も用いた。16ノードの実験環境では、8ノードの実験設定からデータ並列数を 2 倍の $16(\mathrm{DP}=16)$ に増やした。
## D. 3 実験設定
今回の実験は Llama 2 13B の継続事前学習であるので、言語モデルのアーキテクチャは Llama 2 13B をそのまま採用する。すなわち、埋め込み表現ベクトルの次元数は 5,120 、フィードフォワード層の隠れ層の次元数は 13,824 、アテンションヘッド数は 40、Transformer の層数は 40 である。継続事前学習を行う前に日本語の語彙をトークナイザーに追加しており、語彙数は Swallow と 1lm-jp-corpus v1.0.1 で 43,176、ClueWeb22 で 41,720 である ${ }^{22)}$ 。学習のオプティマイザーには、AdamW [21] を採用し、ハイパー パラメータは $\beta_{1}=0.9, \beta_{2}=0.95, \epsilon=1.0 \times 10^{-8}$ と設定した。学習率のスケジューリングには、コサイン波形による減衰 (cosine learning rate scheduler)を利用し、学習率は 1,000 ウォームアップ・ステップで最大值 $1.0 \times 10^{-4}$ に達し、最終的にはその $1 / 30$ に減衰するように設定した。バッチサイズは 1,024である。重み減衰 (weight decay) に 0.1 、勾配クリッピング (gradient clipping) に 1.0 を使用した。さらに、計算効率の向上と省メモリ化のため、Flash Attention [22]を採用した。
21)実験に用いたノード数が揃わなかったのは、本論文で説明する実験以外にも同時に進めた実験があるためで、限られた計算資源・期間で有望そうな設定を優先してモデル構築を進めたからである。
22)Swallow と llm-jp-corpus v1.0.1を継続事前学習に用いる場合、トークナイザーに追加する語彙は Swallow の統計情報を用いた。これに対し、本実験を進めた際の些細な経緯により、ClueWeb22では ClueWeb22 の統計情報を用いたため語彙数に差が生じてしまっている。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A6-2.pdf | # 大規模言語モデルの日本語理解能力検証 のための「本音と建前」データセットの構築
子安隆人 綱川隆司 西田昌史
静岡大学情報学部情報科学科
koyasu.takato.16@shizuoka.ac.jp_\{tuna,nishida\}@inf.shizuoka.ac.jp
## 概要
本研究では,大規模言語モデルの言語処理能力の検証を目的とし, 大規模言語モデルが日本語の独特の文化的背景や言語構造を適切に理解し処理することができるかを明らかにするため,言語モデルが文中の非明示的な情報や隠された意味を理解し,それを基に推論する能力を有しているか検証するためのデータセットを構築する.本データセットを用いて,言語モデルがどの程度日本語文のニュアンスや文脈を適切に捉えることができるのかを検証した。
## 1 はじめに
近年,人工知能技術のブレイクスルーにより自然言語処理技術は目覚ましい発展を遂げている。この分野での飛躍的な発展はコンピュータが人間の言語をより深くより正確に理解し,それを基に適切な応答を生成する能力の向上を示している.この動向の中心には, OpenAI 社による大規模言語モデルである ChatGPT が存在し, その卓越した性能は注目を集めている.
しかしながら,大規模言語モデルの言語処理能力の検証においては,英語文における検証や評価の報告は数多く行われている一方, 日本語における評価は英語と比較して少ないという現状がある[1]. 日本語は独特の文化的背景や言語構造を持ち, これらの要素が言語処理において重要な役割を果たしている.英語とは異なる日本語のニュアンスや文脈を正確に捉えるための検証や研究は極めて重要であると言え, とりわけ文中の非明示的な情報や隠された意味を理解し, それを基に推論する能力に関する研究は限定的である. 大規模言語モデル ChatGPT が,文中の非明示的な情報や意図をどの程度正確に理解し, 適切
に処理できるのかという点について,「本音と建前」 に焦点を当てたデータセットを用いて検証する。
## 2 関連研究
言語モデルの一般的な日本語理解能力を測る研究としては, 栗原[1]らの研究が挙げられる.この研究では, 文章分類タスク, 文ペア分類タスク, $\mathrm{QA}$ タスクから構成される言語理解ベンチマーク JGLUE を構築しており,QAタスク以外においては人間のスコアよりも高いスコアを記録する言語モデルが存在することが示唆された.
一方,言語モデルの日本語における常識推論能力を検証する研究としては, 竹下 [2] らの研究が挙げられる. 文化相対性を考慮した英語圈以外の常識道徳を反映した, 常識道徳の理解度評価用の日本語デ一タセット JCommonsenseMorality を構築した. この研究によって,他の類似したベンチマークと比較して,より困難な常識理解を必要とすることが示唆された.
## 3 データセット構築手法
本研究では, 日本において「本音と建前」として扱われる習慣を焦点とし,大規模言語モデルが日本語文中の非明示的な情報や背後の意図をどれだけ的確に捉えられるのか, またその推論能力の限界や強みを明らかにするための手法を提案し,検証を行うことを目的とする。
本実験では,「本音と建前」を軸としたシナリオを複数用意し,それを基に「本音と建前」に関する日本語の読解問題 50 問からなるデータセッドを構築する。そして,作成した問題を大規模言語モデルに入力し,回答を記録して分析を行う。
本実験で作成した読解問題は 4 択の選択式問題お
よび自由記述問題であり, 問題文は以下の 4 つの部分で構成される。
1. 以下に続く文章が日本の「本音と建前」文化を表すものであることに関する説明文
2. 各エピソードの前提となる説明文
3. 建前の形で表現される言葉に関する文
4. 隠された本音によってもたらされた結果を示す文
選択肢式問題における選択肢は以下の 4 つの構成とする.
1. 建前の文を肯定した文
2. 建前の文を否定した文
3. 本音を的確に表した文
4. 本音にやや近いが最も的確に表しているとはいえない文
上述の問題構成および選択肢の作成ルールに基づいて作成した選択肢式の問題例を図 1 に示す. また,自由記述の問題例を図 2 に示す.
以下の文章は日本の本音と建前の文化を表す文章です。 $\mathrm{A}$ さんは若い頃、自分のアパートで何回かパーティを開きました。すると近所の人たちは 「お友達といつも楽しそうにしてて、羡ましい」
て、Aさんが次のパーティに近所の人たちを誘ったところ、警察が呼ばれました。A さんは警察から「騒がしすぎる」と注意を受けました。
近所の人の「お友達といつも楽しそうにしていて、羡ましい」という言葉はどのような意味・意図であったか、最も適当なものを以下の 1 から 4 の選択肢の中から一つ選んでください。その選択肢を選んだ理由も簡潔に述べてください。
1.友達とパーティを楽しんでいることが羡ましいと伝えたい
2.友達とパーティを楽しむことは羡ましくはないと伝えたい
3.パーティの音がうるさく迷惑であることを伝えたい
4.パーティを楽しんでいることは羡ましいが音が大き寸ぎるということを伝えたい
図 1 選択肢式の問題例以下の文章は日本の本音と建前の文化を表す文章です。
Aさんは若い頃、自分のアパートで何回かパーテイを開きました。すると近所の人たちは「お友達といつも楽しそうにしていて、羡ましい」といったような言葉を Aさんにかけました。
そして、Aさんが次のパーティに近所の人たちを誘ったところ、警察が呼ばれました。A さんは警察から「騒がしすぎる」と注意を受けました。近所の人の「お友達といつも楽しそうにしていて、羡ましい」という言葉はどのような意味・意図であったと考えられるか、簡潔に答えてください。その理由も述べてください。
図 2 自由記述の問題例
## 4 実験設定
本実験のテスト対象となる言語モデルは OpenAI 社の大規模言語モデルである GPT-4 および GPT-3.5 Turbo である. 選択肢式問題における選択肢の 1 から4の並び順は全ての問題で昇順であるが,一つの問題につき新しいセッションを生成して問題の入力を行っているため,ある問題への回答が前の問題の情報によって影響を受けることはない. 評価実験は, 2023 年 11 月時点で利用可能な最新のモデルを API 経由で用いて実施した。
## 4. 1 問題の入力条件
大規模言語モデルのバージョンによる回答の違い, そして問題入力時の指示,すなわちプロンプトエンジニアリング手法[3][4]による回答の違いを検証するため, 言語モデルのバージョンおよび入力方法によって回答を分けて記録する. 問題の入力方法を表 1 に示す. テストは一つのモデルにつき入力方法ごとに 5 回ずつ実行し,回答を記録する。
表 1 問題の入力方法
& \\
\\
## 4. 2 評価項目
言語モデルの回答における評価項目は, 選択肢式問題では問題の正解率に加え, 表 4 中の $(\mathrm{P}),(\mathrm{Q})$ の 2 つの項目を評価する. 選択肢式問題における評価対象は表 1 中の Zero-Shot とする.
自由記述問題における回答の評価は, 表 5 中の (R), (S), (T)の 3 つの項目を評価する。
## 4.3 結果
言語モデルの選択肢式問題における正解率を表 3 に示す.
表 3 選択肢式問題における正解率
& GPT-4 \\
選択肢式問題における 2 つの評価項目の結果を表 4 に示す.表 4 選択肢式問題における 2 つの評価項目
& GPT-4 \\
自由記述問題における 3 つの評価項目の結果を表 5 に示す.
表 5 自由記述問題における 3 つの評価項目
& GPT-4 \\
表 3 から, 入力方法によらず GPT-3.5 Turbo より GPT-4 の方が高い平均正解率を記録している. 一方,各モデルの入力方法ごとの平均正解率の変化に着目すると, GPT-3.5 Turbo では問題入力時に回答についての指示を与えた全ての場合で平均正解率が減少している. GPT-4 では入力方法として Self-Consistency を採用した場合に平均正解率が大きく上昇しており,それ以外の 3 つの入力方法では Zero-Shot の場合と平均正解率に大きな差はない.
表 4 から, 評価項目(P)において GPT-4 は GPT-3.5 Turbo に比べ $124 \%$ 程度の数値を記録している. (Q)では, GPT-3.5 Turbo で 0.996, GPT-4 で 1.000 とほぼ 1 に近い数値である。
表 5 から, (R)において GPT-3.5 Turbo と GPT-4 の両方で 1.000 を記録している。一方, (S)においては GPT-3.5 Turbo で 0.420 , GPT-4 で 0.740 となり, GPT4 は GPT-3.5 Turbo に比べ 76\%程度高い数值となっている. (T)においては, GPT-3.5 Turbo で 0.480, GPT-
4 で 0.260 となっており, それぞれのモデルで(S)と
(T)の数値を加算した合計値は GPT-3.5 Turbo で 0.900, GPT-4 で 1.000 である.
以上の結果から,選択肢式問題と自由記述問題の
2 つの出題方法にかかわらず, GPT-4 は GPT-3.5
Turbo に比べ,より正解に近い,すなわち非明示的な情報や意図を適切に推測し処理していることが示唆された. 一方で, 出題方法間のモデルごとの回答に着目すると, 表 4 中の $(\mathrm{P})$ と, 表 5 中の(S)と $(\mathrm{T})$ の合計値との比較から, それぞれのモデルにおいて選択肢式問題として出題した場合より自由記述問題として出題した場合の方がより適当な推測を行うことができる傾向があることが示唆された.
## 5 おわりに
本論文では,言語モデルが文中の非明示的な情報や隠された意味を理解し,それを基に推論する能力を有しているか検証するためのデータセットを構築した. 今後は言語モデルの言語処理能力を評価するためのベンチマークとして, より複雑で高度な言語処理能力を必要とするデータセットの構築を進めていく予定である.
## 参考文献
[1] 栗原健太郎, 河原大輔, 柴田知秀:” JGLUE:日本語言語理解ベンチマーク”, 言語処理学会第 28 回年次大会, 2022.
[2] 竹下昌志, ジェプカ・ラファウ, 荒木健治:” JCommonsenseMorality: 常識道徳の理解度評価用日本語データセット”, 言語処理学会第 29 回年次大会, 2023.
[3] Jie Huang, Kevin Chen-Chuan Chang: "Towards Reasoning in Large Language Models: A Survey”, In Findings of the Association for Computational Linguistics: ACL 2023, pages 1049-1065. 2023.
[4] Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao: "ReAct: Synergizing Reasoning and Acting in Language Models", ICLR2023, 2023. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A6-3.pdf | # ichikara-instruction
## LLM のための日本語インストラクションデータの作成
\author{
関根聡 ${ }^{1}$ 安藤ま後 $^{2}$ 藤美知子 ${ }^{1}$ 鈴木久美 ${ }^{1}$ 河原大輔 ${ }^{3,1}$ 井之上直也 ${ }^{4,1}$ 乾健太郎 ${ }^{5,6,1}$ \\ ${ }^{1}$ 理化学研究所 AIP ${ }^{2}$ フリー ${ }^{3}$ 早稲田大学 ${ }^{4}$ 北陸先端科学技術大学院大学 \\ ${ }^{5}$ MBZUAI ${ }^{6}$ 東北大学 \\ satoshi. sekine@riken. jp
}
## 概要
GPT を始めとする対話型生成AI は主に、事前学習、 Supervised Fine Tuning(SFT)、強化学習を用いて構築された言語モデルで構成されている。特にSFT で利用されるインストラクションは非常に重要な役割を担っている。我々は 2024 年 3 月までに、高品質な日本語インストラクションデータを 1 万件作成する計画である。本論文では 2023 年 12 月 21 日に共同研究企業に向けて公開したデータの概要と、それに基づく評価結果、最終目標、データの作成手順、プロジェクトの形態と今後について紹介する[1]。
## 1. はじめに
GPT を始めとする生成 AI (LLM) が、数多くのタスクにおいて非常に高い精度で対話的な言語生成を行い、実応用化が広がるなどの影響を与えている。特に GPT を開発している OpenAI は大きな影響を与えた代表格と言える。OpenAI は、その技術の詳細は公開していないが、GPT は事前学習、インストラクションに基づくSupervised Fine Tuning (SFT)、強化学習の 3 つのコンポーネントからなり、特に、SFT における高品質なインストラクションが重要な役割を担っていることを報告している[2]。しかしながら、高品質かつある程度の規模の日本語インストラクションデータは未だ存在しない。
LLM の開発は英語で特に進んでおり、インストラクションデータについても、公開されているものがある。特にDolly[3],Open Assistant (OASST) [4] と呼ばれる大規模データは、日本語に自動翻訳されたデータも存在する。また、過去に日本語の言語処理タスクのために作られたデータを対話形式に加工し、インストラクションデータとして公開しているものもある[5][6]。しかしながら、現状、それらの
データを用いて SFT された LLM では、GPT のような高品質な回答の生成には至っていない。したがって、 GPTが実現しているような出力をするLLMを作成し、 その透明性を実現するためには、単なるクイズや質問応答 $(\mathrm{QA})$ のような単純なインストラクションだけでは不十分であり、下記の要件が満たされるインストラクションの作成が必要であると考えられる。
- 一般の人がLLMで聞くであろう自然で幅広い種類の質問がカバーされている
- 回答は流暢で読みやすく、豊富な情報量を含む
- 質問や回答の種類を認識し、LLM の透明性に関する研究のために、タスク、分野、回答タイプなどのタグを付与する
本稿では、このような高品質なインストラクションデータを作成することを目的とした「LLM のための日本語インストラクションデータ作成プロジェクト」 を紹介する。本プロジェクトで構築されているデー 夕は “ichikara-instruction”と呼ばれ、理研 AIP の言語情報アクセス技術チームが中心となり、2023 年 7 月に企業との共同研究という枠組みで作成を開始した。データの作成は、森羅プロジェクト [7]の教師データ作成などの経験がある 15 人のアノテータ一と共に開始した。その後、アノテーターの人数を大幅に増やし、2024 年 1 月現在、40 名程度のアノテ ーターと 3 社の外注企業で、データ作成作業を行なっている。現在のところ、質問と回答は自然言語での 1 ターンで、一般的な分野を対象としているが、将来的には安全性対策、マルチターン、マルチモー ダル、専門分野のデータを作成していく予定である。本データは共同研究に参加された企業には随時共有し、安価な商用ライセンスも提供させて頂いている。完成時には研究目的 (CC-BY-NC-SA) での一般公開、有償での商用ライセンスの提供も計画している。
## 2. 関連研究
OpenAI の InstructGPT の論文[2]によると、GPT の学習は 3 段階からなる。
1. 事前学習 : 大量のコーパスを用いて大規模なパラメーター学習を行う
2. Supervised Fine Tuning(SFT):インストラクションを用いて教師付き学習を行う
3. Reinforcement Learning from Human Feedback (RLHF; 強化学習) : 多くのインストラクションに対してモデルを走らせ、多様な出力を得る。人間がモデルにその優劣を教え、モデルをより良いものにする。
論文では、この中で SFT の重要性が強調されている。InstructGPT は 14,428 件のデータによって学習され、非常に大きな精度向上が見られたとされている。作業者の選抜、作成方針、作成データの分布や例等も報告され、インストラクション付きの $1.3 \mathrm{~B}$ の GPT-3 のモデルが、175B のモデルよりも高性能であったことが報告されている。
また、オープンな LLM を用いてインストラクションの影響を調べた論文[8]では、結論として下記のように報告されている。
- 特定の目的やジャンルのインストラクション学習はそれらの性能を大幅に向上させる
- インストラクション学習は、論文で報告されているすべての実験において性能を上げた
- この実験で使われたすべてのインストラクションを用いて学習されたモデルは、評価タスク全体の平均値としては最良だが、個別の評価タスクにおいて常に最良というわけではない
- オープンなモデルとデータを使うだけでは、
ChatGPT に遥かに及ばない
- 出力が長いほど、評価結果が良くなる傾向が見られた
ここでも、インストラクションによる SFT の重要性が認められる。もちろん、インストラクションを用いた SFT ができるほどの高精度な LLM が構築されていることも重要ではあるが、ここで示されているような高品質のインストラクションを作成することが、LLM 構築の重要な鍵であることがわかる。
次に一般に公開されている 2 つ日日本語インストラクションデータセットを検証する。
まず、DataBricks が提供している Dolly という 15,000 件からなるインストラクションデータを紹介する[3]。これは DataBricks の社員に英語で質問と回答を作成させそれを機械翻訳したものである。しかし、データには似た質問が数多くあり、回答もシンプルである。また、日本語翻訳のインストラクションデータ[5]には図 1 のような、翻訳による問題や言語や文化による問題が見られる。
"what are some things you can do on a snowy day", $<$ 文化の問題 $>$
"曜日を開始時のアルファベットで分類する。日曜日、月曜日、火曜日、水曜日、木曜日、金曜日、土曜日",
"人気ミュージシャンを 5 人挙げる",
$\rightarrow$ "ティラー・スウィフト、ヴァンス・ジョイ、
ザ・スクリプト、コールドプレイ、レディー・ガガ"
図 1. 問題のある Dolly 翻訳データの例
次に、Open Assistant[4]を紹介する。これはクラウド参加者に、ある形式で自由に対話を行わせ、そのデ ータを木構造のインストラクションとして構築したものである。主に対話を目的にしたデータであり、自然な会話を作るために有効であることは報告されているが、いわゆる、質問応答や要約や翻訳などのタスクに対して有効であるかは未知数である。
## 3. データの概要
インストラクションデータは 2023 年 12 月 21 日の時点で、質問回答ペア 4,802 件が完成しており、3 月末までに 1 万件が完成する予定である。4,802 件中、 200 件の質問には 2 名が回答を作成し、別の 200 件の質問には 5 人が回答を作成している。 3 件のインストラクションの具体例を付録に掲載する。
各インストラクションには LLM の透明性の研究に利用することを目的にタグを付与している。最終的には全データに付与するが、2024 年 1 月現在では 951 件にタグが付与されている。現状のタグ種類の定義および例と、「操作」タグの値の統計データを、表 1、表 2 に示す。
& 唯一解、客観、主観 \\
表 1.タグの種類
& \\
表 2. 操作タグと頻度
## 4. データ作成の手順
(1) 質問の作成
質問は自由な発想で作成する方法と、既存の質問を参考に、それにインスパイアーされるような質問を作るという方法で作成した。既存の質問は、Dolly, Alpaca[9]などのインストラクションデータや、コミユニティー質問応答データ、ブログなどに載っている質問などを利用した。もちろん、著作権の問題からそのまま利用することは一切行なっていない。また、一部の自由な発想で作ることが得意なアノテー ターには、自由な発想の質問を積極的に作ってもらった。質問には誤字脱字が散見されるが、これは実際のシステムでも起こり得ることと考え、修正していない(例えば、「AKB45」と書かれている質問があるが、回答はその点について「AKB48 のことだと思いますが」と指摘してから、AKB48 に関する回答を作成することを基準としている)。
(2) 回答の作成
上記の質問に対し、原則として異なるアノテータ一が回答を作成している。これは、質問が自身の得意分野に偏らないようにするための配慮である。また回答は、GPT のような丁寧な回答になるよう、度重なる試行錯誤を経て作成方法をブラッシュアップさせた。回答に ChatGPT の出力を利用すると、デー タを LLM 開発に利用できなくなるため、アノテー ターには極力、利用しないように指導している。利用した際にも、全く異なる回答を作成することとしている。また、アノテーターからの質問は作成要領の指針を決める貴重な材料となり、データを作る作業自体が学びの場であった。
(3) 回答のチェック
回答が日本語として適切か、回答作成の方針を逸脱していないか、Web ページや GPT などの出力そのままではないかなどのチェックを 2 人が独立に行い、高品質なデータ作成に努めた。
(4) 質問・回答に対するタグ付け
3 節で述べたタグを全データに付与する予定である。このタグ定義も試行錯誤を重衩ており、現在のものが最終形ではなくなる可能性もある。タグ付けは摇れがないように、このようなタスクが得意なアノテーターの一人による作業として進めてきたが、全体にタグつけするのは困難であるため、このア, テーターを中心に 6 名で作業を行なっている。
## 5. 評価
共同研究を行なっている企業が SFT で ichikarainstruction” データを利用した LLM の評価結果を報告している。詳しくは引用論文やプレスリリー スを参照して頂きたいが、簡単に紹介する。
## 株式会社マネーフォーワードによる評価 [10]
rinna/youri-7b (base system)を ichikara-instruction で SFT 学習させた houou システムを Rakuda ベンチマ ーク[11]で評価した結果が表 3 の通りである。v1 は base システムを“ichikara-instruction” の 2,903 件で学習させたもの、v2 は 4,802 件で学習させてものである。ベースシステムや他のインストラクションに対する本インストラクションの優位性が示されている。また、Rakuda ベンチマークは GPT-4 による自動評価なため信頼性には疑問はあるが、この評価では GPT-3.5 よりも高い勝率を得ている。
& & \\
\cline { 2 - 5 } & base+Dolly 日本語 & 82.5 & 12.5 & 5.0 \\
\cline { 2 - 5 } & base+OASST 日本語 & 77.5 & 15.0 & 7.5 \\
表 3 . houou システムの評価結果
## ストックマーク株式会社による評価 [12]
独自に 2,200 億トークンから事前学習したモデルを、15k の Dolly, $89 \mathrm{~K} の$ OASST, 52K の Alpaca および 1,003 件の “ichikara-instruction” のそれぞれで追加学習し、Stockmark Business Question を用いて人手で評価したところ、データの規模は他のデータに比較して $1 / 15$ 以下であるにも関わらず、
“ichikara-instruction” での正解率が 1 位であったことが報告されている。回答は単に質問の答えを述べるだけではなく、より詳細な情報が伴う傾向が見られたことも報告されている。
## 株式会社オルツによる評価 [13]
(株)オルツが公開した LHTM-OPT の追加学習に“ichikara-instruction” の 2,903 件のデータが利用され、Rakuda ベンチマークにおいて、当時の国内最高性能が達成したと報告されている。 これらの評価から、少なくとも“ichikarainstruction”は Dolly やOASST $の$ 日本語訳に比較して、有意に LLM の精度を向上させており、高品質なインストラクションデータが LLM の構築のために重要であることがわかる。
## 6. プロジェクトの形態と今後
本インストラクションデータの作成には約 2,000 万円の費用をかけている。この費用を捻出するために本プロジェクトは、企業との共同研究という形式をとった。研究目的のデータ公開(CC-BY-NC-SA)を前提としているものの、データの逐次公開と作成~ ウ八ウの共有に対し 200 万円の共同研究としたところ、21 社からの応募があり、 1 月 12 日現在、15 社との契約が成立している。LLM のための日本語インストラクションの作成に対して大きな期待があることがわかる。多額の費用を多くの参加者で分担し、共有財産を構築することで日本の LLM の一刻も早いキャッチアップを実現すると同時に、LLM の透明性の実現に貢献したいと考えている。このデータは、共同研究企業とそれ以外で費用の差はあるが、有償にて商用ライセンスをすべての企業団体向けに提供している。詳細はホームページ[1]を参照頂きたい。今後は、まずこのデータを利用して日本語LLM の底上げに貢献したい。インストラクション構築の今後に関しては、4つの方向性を考えている。それらは、マルチターン、マルチモーダル、安全性、ドメイン依存のインストラクションの構築である。詳細については別の機会に紹介していきたい。
## 7. まとめ
本論文では、LLM のための日本語インストラクションデータ“ichikara-instruction”を紹介した。高品質なインストラクションを丁寧に作成し、既に、複数の企業が利用して、LLM の精度が向上することが示されている。2023 年 12 月 21 日には 4,802 件のデータを共同研究企業に、2,903 件を研究目的で一般に公開したが、 2024 年 3 月末までに 1 万件を完成させる予定である、研究目的には CC BY-NC-SA にて一般公開をしており、商用利用については有償でのライセンス提供を行なっている。
## 謝辞
本インストラクションデータは 2024 年 1 月初旬時点で、15 の企業様との共同研究において構築されている。他に、4社との契約締結作業中である。 すでに契約を締結した 15 の企業は以下の通りである。(順不同敬称略)
- 株式会社日本総合研究所
- 三菱電機株式会社
- 株式会社マネーフォワード
- ストックマーク株式会社
- 株式会社レトリバ
- 株式会社オルツ
- 株式会社フィックスターズ
- ソフトバンク株式会社
-ファーストアカウンティング株式会社
- みずほリサーチ\&テクノロジーズ株式会社
- 株式会社リコー
- TOPPANデジタル株式会社
- 株式会社 JSOL
- 株式会社 ELYZA
- 他匿名 1 社
## 参考文献
1. ichikara-instruction. LLMのための日本語インストラクション作成プロジェクトホームページ: https://liat-aip.sakura.ne.jp/wp/llmのための日本語インストラクションデータ作成.
2. Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin et al. Training language models to follow instructions with human feedback. NuerIPS 2022. arXiv:2203.02155v1 [cs.CL] 4 Mar 2022.
3. Dolly Dataset : https://huggingface.co/datasets/databricks/databricks -dolly-15k
4. Andreas Kopf, Yannic Kilcher. "OpenAssistant Conversations - Democratizing Large Language Model Alignment. Open Assistant". https://arxiv.org/abs/2304.07327
5. Dolly日本語翻訳データ https://github.com/kunishou/databricks-dolly-15k-ja
6. 平野正徳, 鈴木雅弘, 坂地泰紀. “llm-japanesedataset $\mathrm{v} 0$ : 大規模言語モデルのための日本語チヤットデータセット構築”. Jxvi 383.
https://jxiv.jst.go.jp/index.php/jxiv/preprint/view/38 $\underline{3}$
7. 森羅プロジェクトホームページ http://shinraproject.info
8. Yizhong Wang et al. How Far Can Camels Go? Exploring the State of Instruction Tuning on Open Resources. NeurIPS2023. arXiv:2306.04751v1 [cs.CL] 7 Jul 2023
9. Alpaca Homepage https://crfm.stanford.edu/2023/03/13/alpaca.html
10. $\mathrm{MF}$ 論文(TBA)
11. Rakudaベンチマーク: https://yuzuai.jp/benchmark
12. ストックマークのプレスリリース : https://tech.stockmark.co.jp/blog/202311_stockmark $13 \mathrm{~b}$ instruct/
13. オルツのプレスリリース : https://prtimes.jp/main/html/rd/p/000000053.000111 359.html
## A 付録 (ichikara-instruction $の$ 例)
"ID": "ichikara-instruction-003-001-0000002-001",
"text": "「1匹=いっぴき」と数えるのに、「2匹 $\rightarrow 2$ ぴき」と数えない理由を答えなさい。",
"output":"日本語には、「助数詞」と言って「数量を表現するのに用いる接尾語」があります。林この助数詞は、「種類の多さ」と「音の変化=変音現象」が特徴です。林紙一枚(まい)、車一台(だい)、列車一輛(りょ
¥n例えば、カエルを数えるときに「1匹=いっぴき」と読むのに対して「2匹キにぴき」で2匹を「にぴき」とは読まずに「2匹=にひき」となります。林どうしてこうなるのか。林ここには、漢語の半濁音のルール、というものが発生します。林まず、半濁音は八行にだけしか付きません。(はひふへほヤぱぴぷ゚゚ぽ)¥nそして、連濁といって語と語が合体するときに後ろに来る語の頭の部分が清音から濁音に変化します。林八行音の連濁のうち、前の語の最後に 「っ」がくると、後ろの語の頭が半濁音に変わります。 $¥ n ¥ n$ 例)切(せつ)+腹(ふく)=切腹(せっぷく) ¥n ¥n助数詞も、数字の「一・六・八・十・百」が「八行音の助数詞」と結びっく時、促音便「っ(小さい”
く)、8袋(はち十ふくろ
"meta":\{"操作":“オープンQA", “主観客観”:"客観”, “時間依存":“なし", “対象”:“言語知識”, “分野":"国語","回答タイプ": "文章”\}
\},\{
"ID": "ichikara-instruction-003-002-0002166-001",
"text":"「自由を手に入れた喜び」をポエムで表現してください。",
"output": "「自由を手に入れた喜び」のポエムを作成するにあたって、まずは、それをどのように表現していくか、について考えてみます。 $¥ n ¥ n \because n$ 自由とは、なにものにも束䋠されず、強要されず、解放された状態を指しますので、「広い空間」を思わせるような世界観で描くとよいでしょう。林兴それによって得られた喜びは「躍動感に富んだ表現」を用いることで、より鮮明に、より心躍る感じを出すことができます。具体的には、「短い言葉」や「反復法」を用いると良いでしょう。 $¥ n \because n \because n ¥ n \because n ¥ n$ それでは、一例を挙げてみます。 $¥ n ¥ n ¥ n$ ポエム〜 $¥ n \because n ¥ n$ ぐんぐんぐんぐんスピード上げて $¥ n ¥ n$ ザブンッ白い光の中に飛び出した $¥ n ¥ n$ グッと身体を突き出して $¥ n ¥ n$ 青いキャンバス突き破れ! ¥n $¥ n$ 輝く光を手に入れろ! $¥ n ¥ n ¥ n ¥ n$ 長い長い線を描いて $¥ n ¥ n$ どれだけ長く引けるかな $¥ n ¥ n$ ザブンッ誰も描いたことのない $¥ n$ 静いキャンバス突き破れ! $¥ n ¥ n$ 輝く自由を手に入れて! $¥ n ¥ n ¥ n$ ずっと向こうのアオの彼方へ",
"meta":\{"操作":"創作", “主観客観":"主観”, “時間依存":"なし", “対象":"創作”, “分野":“国語 ", "回答タイプ": "詩" \}
\},\{
"ID" : "ichikara-instruction-003-001-5000088-005",
"text":"日本の観測史上、もっとも梅雨明けが遅かったのは何年のことですか?",
"output":"気象庁発表の「昭和26年(1951年)以降の梅雨入りと梅雨明け(確定値):関東甲信」によると、関東甲信で最も遅く梅雨明けしたのは1982年の8月 4 日です。この年は 6 月17にから8月4日までの 101 日間梅雨が続いていました。また、梅雨の期間が一番長かったのは、2020年の6月11日から8月1日までの174日間です。林林尚、梅雨明けの時期は、地域によって変わりますので、他の地域に関しては気象庁のHPをご確認ください。",
"meta": \{"操作": “オープンQA", “主観客観”: “唯一解”, “時間依存": “あり”, “対象”: “知識”, “分野 ": "気象", "回答タイプ":"時間表現”\} | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A6-4.pdf | # 大規模言語モデルの日本語能力の効率的な強化:継続事前学習における語彙拡張と対訳コーパスの活用
水木 栄 ${ }^{1,2 \dagger}$ 飯田 大貴 ${ }^{1,3 \dagger}$ 藤井 一喜 ${ }^{1}$ 中村 泰士 ${ }^{1}$ Mengsay Loem ${ }^{1}$
大井 聖也 ${ }^{1}$ 服部 翔 ${ }^{1}$ 平井 翔太 ${ }^{1}$ 横田 理央 ${ }^{1}$ 岡崎 直観 ${ }^{1}$
1 東京工業大学情報理工学院 2 株式会社ホットリンク 3 株式会社レトリバ
## 概要
英語を主体として学習ずみの LLM を元に日本語テキストを主体として継続事前学習する方法は,高性能な日本語 LLMを構築する有望なアプローチである. 本研究ではまず継続事前学習の効果を分析し,特に日本語の質問応答で効果的であることを報告する。またLLM の能力を効率的に強化する方法を明らかにするため,日本語の語彙拡張の影響および対訳コーパスの有効性を調査した. その結果,語彙拡張による効率化は要約を除き性能への悪影響はないこと,および対訳コーパスの併用が翻訳能力を強化することを明らかにした。
## 1 はじめに
大規模言語モデル(LLM)は幅広い用途を支える基盤としての役割が期待されており [1],特にわが国の知識や日本語の理解に優れた日本語 LLM を構築する方法の確立は重要な研究課題である. 英語圏ではオープンな LLM を構築する試みが活発であり, これらの優れた学習ずみ LLM を元に日本語テキストを主として学習を継続する,いわゆる継続事前学習は,少ない計算予算で高性能な日本語 LLM を構築する有望なアプローチである [2](図 1). 継続事前学習による日本語 LLM は複数の開発例 ${ }^{1}$ があるが,その能力を効率的に強化する知見は乏しい。 そこで本研究では,Llama 2 [3] を元に継続事前学習した日本語 LLM である Swallow [2] の開発を基礎として,語彙拡張の影響および対訳コーパスの有効性を報告する。
語彙拡張は,トークナイザおよび LLM に語彙を追加する手法である. Llama 2 が採用するバイト対符号化(BPE [4])に基づくトークナイザは英語を重視した設計のため,日本語テキストをバイト単位の
$\dagger$ Equal contribution.
1) Stability AI Japan 社,ELYZA 社,rinna 社の事例がある.
図 1 Llama 2 に対する Swallow の性能の変化. 日本語夕スク (上段. 説明は表 1) のスコアが最大で約 $70 \%$ 向上.
多くのトークンで表現してしまう. このため日本語の単語や文字を追加する語彙拡張は,トークン列を短縮して日本語テキストの学習・生成効率を改善する効果がある.しかし,語彙拡張が性能に及ぼす影響は明らかではない。追加した語彙を上手に扱えなければ直感的には性能を損なう可能性がある一方で,ドメイン適応では性能が改善するとの報告がある $[5,6]$ ほか,同一の計算予算で学習可能なテキス卜量の増加が有利に作用しうるためである.
対訳コーパスは,継続事前学習に日英対訳文を併用する手法である.多言語文埋め込みでは,対訳コーパスを併用した事前学習が言語間転移を促進すると報告されている $[7,8,9]$. また LLM では指示チューニングに翻訳タスクを用いておなじく言語間転移を促す試みもある $[10,11]$. しかし,継続事前学習での有効性および効果的な用法は明らかでない.
本研究では,まず Swallow と Llama 2 の性能を比較して,継続事前学習による日本語および英語の知
識や能力の変化を考察する.次に,継続事前学習における語彙拡張の影響および対訳コーパスの有効性を調査する。語彙拡張については,拡張しない場合との性能を比較する. 対訳コーパスについては,対訳文を学習する順序および学習形式を変えて効果的な学習方法を探る。本論文の貢献は以下のとおり。
- 継続事前学習は日本語能力の改善,特に知識を用いる質問応答に効果的であることを示した.
・語彙拡張は大半のタスクで性能には影響せず,自動要約のみ性能が低下することを示した。
・対訳コーパスの併用は翻訳能力を強化し, 他のタスクには効果が波及しないことを示した.
## 2 関連研究
## 2.1 語彙拡張
文埋め込みモデルのドメイン適応では,対象ドメインの語彙の追加による性能の改善が知られている [5,6]. これに対してLLM の継続事前学習における語彙拡張は対象言語での学習・生成効率の改善が主な動機であり,性能に関する知見は乏しい. 日本語 LLM での語彙拡張の実施例1) は単一のモデルサイズおよび日本語能力の評価のみにとどまるほか,中国語 LLM [12] では語彙拡張を行った場合の性能のみが報告されている. 多言語 LLM では各言語の語彙サイズと性能が相関するが,学習量とも相関するため語彙単独の影響は明らかでない [13].
## 2.2 対訳コーパス
多言語文埋め込みモデルでは,対訳コーパスを用いた言語モデリングによる事前学習が隠れ状態べクトルの言語個別性を緩和し,言語間転移を促進するとの報告がある $[7,8,9]$. また LLMへの応用では対訳文を指示チューニングに用いることで多言語コー パスよりも効率的に翻訳能力を改善するとの報告がある $[10,11]$.
## 3 実験設定
## 3.1 継続事前学習
本研究で用いる継続事前学習の方法は,特記なきかぎり Swallow [2] と同一である. 学習元の LLM は Llama 2 base である. 学習テキストは日本語と英語
が9対 1 の多言語コーパスで, 日本語はSwallowコー パス [29] および Wikipedia,英語は RefinedWeb [30] および The Pile [31]の arXiv サブセットである.
学習トークン数はすべての実験で 100B(illion) で統一する。すなわち,語彙拡張の実験ではそれぞれのトークナイザで得られる 100B 相当のテキストを学習する。なお語彙拡張をする場合の日本語テキスト量は, 語彙拡張なしの約 1.8 倍となった. 対訳コーパスの実験ではすべての対訳文を使用し,残りは多言語コーパスを足して 100Bにする。
## 3.2 語彙拡張の影響
Swallow で採用した語彙拡張では,日本語語彙の構築, ベクトルの初期化, および文字列前処理の追加を実施している. 詳細は付録 A. 1 を参照.
日本語語彙の構築は, $\mathrm{MeCab}$ [32] と UniDic 辞書で単語分割した Swallow コーパスに対して BPE アルゴリズムによって語彙を構築(上限 16k)したうえで, ひらがな・カタカナ・漢字・長音記号で構成される 11,176 件のサブワードをLlama 2 トークナイザに追加した. 追加後の語彙サイズは 43,176 となった.追加したサブワードの埋め込み層と出力層のべクトルは, 先行研究 [6] に倣い, Llama 2 トークナイザで分割したサブワード,すなわちLlama 2 が学習ずみのサブワードのべクトルの平均で初期化した.
文字列の前処理は, 半角英数字記号の学習ずみ知識の活用を企図して,NFKC 正規化を追加した.
語彙拡張の影響を調べる実験(§4.2)では,語彙拡張をせずに継続事前学習した Swallow-VE を Swallowと比較する.
## 3.3 対訳コーパスの有効性
本実験では,Swallow-7bᄀVE をべースラインとして語彙拡張の影響を捨象したうえで,対訳コーパスを継続事前学習に併用する場合の性能を調べる. 使用したコーパスは JParaCrawl 3.0 [33]であり,ウェブから抽出した約 2,200 万件の日英対訳文が含まれる.対訳コーパスの用法は,学習の順序およびタスク形式が異なる 3 通り(表 3,詳細は付録 A.2)を試行する.学習の順序は,対訳コーパスを使い切ってから多言語コーパスに切り替える “先行” と, 多言語コーパスと混合する “同時” の 2 種類である. タスク形式は,連結対訳文による次単語予測形式と,翻訳指示文とソース文の連結からターゲット文を予測する翻訳指示形式の 2 種類である.いずれもひとつ
}} \\
表 2 英語の評価。OBQA は OpenBookQA [23],TrQA は TriviaQA [24],HS は HellaSwag [25],XW は XWINO [26] の略.
& EM acc & & & \\
表 3 対訳コーパスの実験で試行した用法の一覧.
の対訳ペアから日 $\rightarrow$ 英と英 $\rightarrow$ 日の二方向を作る.
## 3.4 評価方法
日本語および英語の評価方法をそれぞれ表 1 および表 2 に示す. データセットは日本語 8 種類, 英語 6 種類で,評価タスクは質問応答・読解・自動要約・推論・機械翻訳の few-shot 学習である. タスクの選定は LLM-jp の議論 [16] や Llama 2 論文の方法論 [3] を参考にしつつ,推論や文生成に関わるタスクを積極的に採用した。なお Ilm-jp-eval に含まれる自然言語推論タスクは,特に $7 \mathrm{~b} \cdot 13 \mathrm{~b}$ モデルでスコアが不安定であったため評価対象から除外した(付録 C).
## 4 実験結果
## 4.1 継続事前学習の効果
Swallow および,その学習元である Llama 2 の評価を表 4 に,また Llama 2 に対する Swallow のスコアの増減率を図 1 に示す. Swallow の日本語タスク平均スコアはLlama 2 を約 7 ポイント上回る一方で,英語は 2-5 ポイント下回る. タスク別に見ると ${ }^{31}$,日本語の質問応答(JCQA, JEMHQA, NIILC)は最大 75\%,算術推論(MGSM)は 36-63\%の顕著な改善が見られる. 対照的に英語では質問応答(TrQA)および算術推論(GSM8K)で 6-23\%の悪化が生じる. 自動要約(XL-Sum)の増減は 5\%未満である。機械翻
図 2 NIILC の各設問の採点(文字 F1,完全一致なら 1) に対する Llama 2 (X 軸) と Swallow (Y 軸) の同時分布.
訳は方向により対照的で,英日(En-Ja)は 15-41\%改善,日英(Ja-En)は 4-13\%悪化する. 日本語の読解(JSQuAD)は Llama 2 のスコアが 0.8 超のため伸び代は小さく,10\%未満の改善にとどまる.
継続事前学習がもたらす日本語の能力および知識の変化について考察する. 算術推論 (日:MGSM, 英: GSM8K) は, Llama 2では英語優位 (GSM8K>MGSM) であるところ, Swallow では MGSM が改善するも GSM8K が同水準まで悪化しており, 英語での推論能力が日本語に転移したとは言いがたい. 指示チューニングでの転移効果 [34] 踏まえると,インストラクションデータの併用が有効かもしれない.
知識については,質問応答の顕著な改善をふまえると,日本の知識の獲得が進んだことが示唆される. 継続事前学習によって質問応答(NIILC)の各設問の採点に生じた変化を図 2 に示す. 左上隅の色が濃いことから,誤答から正答に変化した設問が多く,その逆は少ないことがわかる.この傾向は,継続事前学習が, 新たな知識を取り入れて間違いを修正するように機能したことを示唆している.
## 4.2 語彙拡張の影響
語彙拡張をしないSwallowっVEに対するSwallowのスコアの増減率を図 3 に示す. 日本語の能力に着目すると,総合的には語彙拡張による性能への影響は小さい. タスク別に見ると,質問応答は $\pm 10 \%$ 程度の増減が見られるも $7 \mathrm{~b}$ と $70 \mathrm{~b}$ で一致した優劣は認められない。よって, 語彙拡張による学習テキスト量の増加(§ 3.1)は性能に表出していない. なお学
表 4 継続事前学習した Swallow と, 学習元である Llama 2 の日本語および英語での評価.
図 3 語彙拡張をしない SwallowᄀVE に対する Swallow の性能の変化.
習曲線における収束特性にも差異は見られなかった (付録 B.2). 自動要約(XL-Sum)は $7 \mathrm{~b} ・ 70 \mathrm{~b}$ ともに語彙拡張をすると約 $15 \%$ 悪化した ${ }^{4)}$. 長文を入力するタスクでは影響が顕在化しやすい可能性がある。
## 4.3 対訳コーパスの有効性
語彙拡張をしないSwallow-7bっVE をべースラインとして,継続事前学習に対訳コーパスを併用した場合のスコアの増減率を図 4 に示す. 翻訳能力は, En-Jaが 9-24\%, Ja-Enが 14-51\%改善した. 特に Ja-En の改善は対訳コーパスに特有の効果である.
コーパスの用法については,次単語予測形式で多言語コーパスと同時,または翻訳指示形式で多言語コーパスに先行する用法が有効であった。すなわち,対訳文を多言語コーパスに混ぜて継続事前学習を行うだけで,翻訳能力を効果的に改善できるとわかった.この知見は,LLM の翻訳能力は平文コー パスに散在する対訳文に由来するとの主張 [35] と整
4) この傾向は指示チューニング実施後も不変だったため,指示追従能力の問題ではないと思われる.
図 4 Swallow-7bᄀVE(7b,語彙拡張なし)に対する,対訳コーパスの使用による性能の変化.
合的である.
翻訳以外のタスクのスコア増减は $\pm 15 \%$ 以内にとどまり,かつ一貫した優劣は見られない. したがって,対訳コーパスが言語間転移を促して翻訳以外の能力を改善する証拠は得られなかった.
## 5 結論と今後の展望
本研究では, 日本語 LLM の能力を効率的に強化する方法を探るべく,継続事前学習の効果を分析するとともに,語彙拡張の影響および対訳コーパスの有効性を調査した. その結果, 継続事前学習の効果は知識獲得による日本語の質問応答で顕著であること, 語彙拡張による効率化は要約を除き性能への影響は小さいこと,対訳コーパスを混合するだけで翻訳能力(特に日英)を改善するも他タスクには効果が波及しないことを明らかにした。
英語能力の維持や推論能力の転移など,継続事前学習には多くの挑戦が残されている. 多様な言語資源の活用,学習方法やアーキテクチャの工夫により,より優れた日本語 LLM の構築を目指したい.
## 謝辞
継続事前学習の実験は,国立研究開発法人産業技術総合研究所が構築・運用する AI 橋渡しクラウド (ABCI: AI Bridging Cloud Infrastructure)による「大規模言語モデル構築支援プログラム」の支援を受けました.学習した LLM の評価実験では、LLM-jp (LLM 勉強会)で開発されているデータや公開されている知見を活用しました。富士通株式会社の平岡達也氏には,語彙構築の設定について助言をいただきました。
## 参考文献
[1] Rishi Bommasani, Drew A. Hudson, Ehsan Adeli, Russ B. Altman, Simran Arora, Sydney von Arx, ..., and et al. On the opportunities and risks of foundation models. arXiv:2108.07258, 2021.
[2] 藤井一喜, 中村泰士, Mengsay Loem, 飯田大貴, 大井聖也, 服部翔, 平井翔太, 水木栄, 横田理央, 岡崎直観. 継続事前学習による日本語に強い大規模言語モデルの構築. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[3] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, ..., and Thomas Scialom. Llama 2: Open foundation and Fine-Tuned chat models. arXiv:2307.09288, 2023.
[4] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 17151725,2016 .
[5] Vin Sachidananda, Jason Kessler, and Yi-An Lai. Efficient domain adaptation of language models via adaptive tokenization. In Proceedings of the Second Workshop on Simple and Efficient Natural Language Processing, pp. 155-165, 2021.
[6] Yunzhi Yao, Shaohan Huang, Wenhui Wang, Li Dong, and Furu Wei. Adaptand-distill: Developing small, fast and effective pretrained language models for domains. In Findings of the Association for Computational Linguistics, pp. 460-470, 2021
[7] Zewen Chi, Shaohan Huang, Li Dong, Shuming Ma, Bo Zheng, Saksham Singhal, .., and Furu Wei. XLM-E: Cross-lingual language model pretraining via ELECTRA. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics, pp. 6170-6182, 2022.
[8] Junjie Hu, Sebastian Ruder, Aditya Siddhant, Graham Neubig, Orhan Firat, and Melvin Johnson. XTREME: A massively multilingual multi-task benchmark for evaluating cross-lingual generalisation. In Proceedings of the 37th International Conference on Machine Learning, pp. 4411-4421, 2020 .
[9] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. In Proceedings of guistics, pp. 878-891, 2022.
[10] Wenhao Zhu, Yunzhe Lv, Qingxiu Dong, Fei Yuan, Jingjing Xu, Shujian Huang, ,.., and Lei Li. Extrapolating large language models to Non-English by aligning languages. arXiv:2308.04948, 2023.
[11] Leonardo Ranaldi, Giulia Pucci, and Andre Freitas. Empowering crosslingual abilities of instruction-tuned large language models by translationfollowing demonstrations. arXiv:2308.14186, 2023.
[12] Yiming Cui, Ziqing Yang, and Xin Yao. Efficient and effective text encoding for chinese llama and alpaca. arXiv:2304.08177, 2023
[13] Kabir Ahuja, Harshita Diddee, Rishav Hada, Millicent Ochieng, Krithika Ramesh, Prachi Jain, ..., and Sunayana Sitaram. MEGA: Multilingual evaluation of generative AI. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 4232-4267, 2023
[14] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, 2022 .
[15] 石井愛, 井之上直也, 関根聡. 根拠を説明可能な質問応答システムのための日本語マルチホップ QA データセット構築. 言語処理学会第 29 回年次大会 (NLP2023), pp. 2088-2093, 2023.
[16] Namgi Han, 植田暢大, 大猋匡俊, 勝又智, 鎌田啓輔, 清丸寛一, 児玉貴志, 菅原朔, Bowen Chen, 松田寛, 宮尾祐介, 村脇有吾, 劉弘毅. $11 \mathrm{~m}$-jp-eval: 日本語大規模言語モデルの自動評価ツール. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[17] Leo Gao, Jonathan Tow, Stella Biderman, Charles Lovering, Jason Phang, Anish Thite, ..., and silentv0x. EleutherAI/lm-evaluation-harness: v0.3.0, 2022 .
[18] 関根聡. 百科事典を対象とした質問応答システムの開発. 言語処理学会第 9 回年次大会 (NLP2003), pp. 637-640, 2003.
[19] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, ..., and Rifat Shahriyar. XL-sum: Large-scale multilingual abstractive summarization for 44 languages. In Findings of the Association for Computational Linguistics, pp. 4693-4703, 2021
[20] Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats Soroush Vosoughi, ..., and Jason Wei. Language models are multilingual chain-of-thought reasoners. In The Eleventh International Conference on Learning Representations, 2023.
[21] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, ..., and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the Fifth Conference on Machine Translation, pp. 1-55, 2020.
[22] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. the Third Conf
[23] Todor Mihaylov, Peter Clark, Tushar Khot, and Ashish Sabharwal. Can a suit of armor conduct electricity? a new dataset for open book question answering. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2381-2391, 2018.
[24] Mandar Joshi, Eunsol Choi, Daniel Weld, and Luke Zettlemoyer. TriviaQA: A large scale distantly supervised challenge dataset for reading comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1601-1611, 2017.
[25] Rowan Zellers, Ari Holtzman, Yonatan Bisk, Ali Farhadi, and Yejin Choi of the 57th Annual Meting of the Association for Computational Lin guistics, pp. 4791-4800, 2019.
[26] Alexey Tikhonov and Max Ryabinin. It's all in the heads: Using attention heads as a baseline for cross-lingual transfer in commonsense reasoning. In Findings of the Association for Computational Linguistics, pp. 35343546, 2021.
[27] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 784789, 2018
[28] Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, ..., and John Schulman. Training verifiers to solve math word problems. arXiv:2110.14168, 2021
[29] 岡崎直観, 服部翔, 平井翔太, 飯田大貴, 大井聖也, 藤井一喜, 中村泰士, Mengsay Loem, 横田理央, 水木栄. Swallow コーパス: 日本語大規模ウェブコーパス. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[30] Guilherme Penedo, Quentin Malartic, Daniel Hesslow, Ruxandra Cojocaru, Alessandro Cappelli, Hamza Alobeidli, Baptiste Pannier, Ebtesam Almazrouei, and Julien Launay. The RefinedWeb dataset for Falcon LLM: Outperforming curated corpora with web data, and web data only. arXiv:2306.01116, 2023
[31] Leo Gao, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster, ..., and Connor Leahy. The Pile: An 800GB dataset of diverse text for language modeling. arXiv:2101.00027, 2020
[32] 工藤拓. 形態素解析の理論と実装. 近代科学社, 2018.
[33] Makoto Morishita, Katsuki Chousa, Jun Suzuki, and Masaaki Nagata JParaCrawl v3.0: A large-scale English-Japanese parallel corpus. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 6704-6710, 2022
[34] Jiacheng Ye, Xijia Tao, and Lingpeng Kong. Language versatilists vs. specialists: An empirical revisiting on multilingual transfer ability. arXiv:2306.06688, 2023.
[35] Eleftheria Briakou, Colin Cherry, and George Foster. Searching for needles in a haystack: On the role of incidental bilingualism in PaLM's translation capability. In Proceedings of the 61st Annual Meeting of the Association pability. In Proceedings of the 61st Annual Meeting
[36] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018.
[37] Tomoki Sugimoto, Yasumasa Onoe, and Hitomi Yanaka. Jamp: Controlled Japanese temporal inference dataset for evaluating generalization capacity of language models. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, pp. 57-68, 2023.
[38] Hitomi Yanaka and Koji Mineshima. Assessing the generalization capacity of pre-trained language models through Japanese adversarial natural language inference. In Proceedings of the Fourth BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP, pp. 337-349, 2021 .
[39] 川添愛, 田中リベカ, 峯島宏次, 戸次大介. 日本語意味論テストセットの構築. 言語処理学会第 21 回年次大会 (NLP2015), pp. 704-707, 2015.
[40] Hitomi Yanaka and Koji Mineshima. Compositional evaluation on Japanese textual entailment and similarity. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 1266-1284, 2022.
## A 実験設定の詳細
## A. 1 語彙拡張の方法
日本語語彙の構築は, 単語分割した Swallow コーパスから乱択したサブセット(単語数 $1.5 \mathrm{~B}$ )を使用した. ただし記号は単独でサブワードにするために,記号を含む単語は記号の両端で分割した. BPEアルゴリズムの実装は,Llama 2 に倣って SentencePiece [36] を用いた. 語彙サイズは予備実験にて 16k, $32 \mathrm{k}, 48 \mathrm{k}$ の 3 種類を試行したが日本語タスクの性能差がなかったため,最小である $16 \mathrm{k}$ に決定した. SentencePiece によって構築したサブワードの語彙に対しては,2つの後処理を適用した. まず,SentencePiece が付与したスペースの特殊文字を削除した.これは, 学習・推論時にトークン化する際には, 語彙構築時とは異なり $\mathrm{MeCab}$ の単語分割を経由しないためである. 次に,追加する語彙サイズが 8 の倍数になるように意図的に調節した。これはモデルの分散並列学習を容易にするための措置である.
追加したサブワードのスコアについては, SentencePiece が出力した BPE の結果を変更せず流用した. これは本来の語彙と追加した語彙のあいだでのマージルールの競合は極めて稀だと判断したためである. 実際,Llama 2 トークナイザの本来の語彙には 2 文字以上の日本語のサブワードは存在しない.
## A. 2 対訳コーパスの用法
日英対訳文を,次単語予測形式(上)および翻訳指示形式 (下) に変換するテンプレートを以下に示す。なお翻訳指示形式の場合は,翻訳先の文のみが学習(次単語予測)の対象である.
[和文] [英文]
[英文] [和文]
次の日本語を英語に翻訳してください。[和文][英文]
Please translate the following English text into Japanese. [英文] [和文]
対訳コーパスを使い切ってから多言語コーパスに切り替える“先行”を実験した意図は, 対訳文によって英語主体から日本語主体の学習への切り替えが円滑化される可能性を想定したためである。なお翻訳指示形式かつ多言語コーパスと同時に使う用法は,LLM学習ライブラリの制約により断念した。
## B 語彙拡張の影響
図 5 自動要約(XL-Sum)における SwallowᄀVE および Swallow $の$ 学習曲線.
図 6 質問応答(JCQA, JEMHQA, NIILC)の平均スコアにおける SwallowᄀVE および Swallow の学習曲線.
## B. 1 自動要約の学習曲線
語彙拡張の有無による自動要約(XL-Sum)の学習曲線の違いを図 5 に示す. 語彙拡張をする Swallow は20Bトークン学習時点で Llama 2 より悪化するが,語彙拡張をしない SwallowᄀVE は横ばいまたは改善する.したがって,語彙拡張時の要約能力の悪化は継続事前学習の開始時点で生じる模様である.
## B. 2 質問応答の学習曲線
語彙拡張の有無による質問応答の学習曲線の違いを図 6 に示す. 学習曲線に顕著な差異はないことから,語彙拡張による日本語テキスト学習量の増加は, 知識を用いるタスクの学習効率に特段影響しないことが示唆される。
## C 自然言語推論タスク評価の課題
図 7 自然言語推論における各クラスの割合. 各データセットの縦棒は左が正解,右が Swallow-7b による予測.括弧内の数字はクラス数.
図 8 自然言語推論における Swallow-7b の学習曲線.
図 9 各種 LLM による予測の最頻クラスが占める割合.
IIm-jp-eval に含まれる自然言語推論(Jamp [37], JaNLI [38], JNLI [14], JSeM [39], JSICK [40])タスクは,クラスの不均衡に起因するスコアの乱高下を複数のモデルで確認した. まず,正解および Swallow-7b が予測したクラスの割合を図 7 に示す. 正解・予測ともに偏りが大きく,特に予測は 3 つのデータセットで最頻クラスが全予測の $95 \%$ 以上を占めている。このため,予測と正解の最頻クラスが偶然に一致するか否かでスコアに大差が生じる性質がある. 次に Swallow-7b の学習曲線を図 8 に示す. 2 つのデータセットで約 40 ポイントの乱高下が生じているが,これは予測の最頻クラスの遷移が原因であった. 最後に,予測の不均衡は Swallow に特有ではなく他の $7 \mathrm{~b} ・ 13 \mathrm{~b}$ モデルでも見られた (図 9),以上をふまえて,自然言語推論の能力をスコアのみで論じることは困難と判断してべンチマークから除外した. 本タスクの評価においては,正解クラスの不均衡を解消するなどの工夫が望ましいと考える。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A6-5.pdf | # Aug AnaloGPT: 大規模言語モデルを用いたアナロジー生成によ るデータ拡張
李宰成山田武士
近畿大学
2010370225t@kindai.ac.jp
yamada@info.kindai.ac.jp
## 概要
データ拡張 (Data Augmentation) とは、新たなデー タ収集なしに、訓練データの多様性を増やし、モデル性能を高める手法を指す。この手法は、自然言語処理 (NLP) において、学習データ不足やデータ不均衡問題に対処する上で重要な役割を果たす [1]。しかし、ほとんどのデータ拡張手法は数百例程度のデータセットに対してのみ有効である [2]。本研究では数千例からなるデータセットにおいても学習データ不足に対処可能なデータ拡張として、大規模言語モデルを用いた文のアナロジー生成に基づく手法 (Aug AnaloGPT) を提案する。文のアナロジー生成とは対象ドメインが異なるが文の論理構造や意味の関係性が類似している類比文を生成することである。提案手法を JGLUE の JNLI[3] のデータセットに適用したところ、言い換えに基づく既存のデータ拡張手法を凌ぐ性能向上を確認できた。
## 1 はじめに
## 1.1 データ拡張
データ拡張 (Data Augmentation) とは、新たなデー タ収集なしに、訓練データの多様性を増やし、モデル性能を高める手法を指す。近年、自然言語処理 (NLP) におけるデータ拡張への需要と関心は高まっている。これは、自然言語処理によって、適応すべきタスクやドメインが増えているからだと考えられる $[1]$ 。
しかし、ほとんどのデータ拡張手法は数百例程度のデータセットのような極端にデータ量が少ない場合でのみ有効である [2]。
本研究では数千例からなるデータセットに対する学習データ不足に対処するために、大規模言語モデルを用いた文のアナロジー生成に基づくデータ拡張手法を提案する。文のアナロジー生成とは対象ドメインが異なるが文の論理構造や意味の関係性が類似している類比文を類推によって生成することである。また、提案手法では Gemini Pro[4] を用いてアナロジー生成を行うことで、データを拡張する。
## 1.2 類推
類推とは知りたいことを、それとよく似た既知のことに対応づけて考えることを指す。認知科学において、知りたいことをターゲットと呼び、既によく知っていることをべースと呼ぶ [5]。そして、ベー スの要素をターゲットの要素に対応付けることをベースからターゲットへの写像という。写像を行う際に、ターゲットとべースのドメイン性を考慮し、関係性が類似している要素同士を対応づけることが必要になる。そのため、類比文の関係にある二つの文は論理構造や意味の関係性が類似している。
## 1.3 アナロジー生成によるデータ拡張
従来の自然言語処理における類推の研究は単語レベルに限定され、文の類推はあまり注目されていなかった。一方近年になり、大規模言語モデルが文のアナロジーを生成できることが示唆されている [6]。 そこで、本研究では、大規模言語モデルの Gemini Pro[4] を用いて、類比文を生成することでデータ拡張を行う。JGLU の JNLI[3] データセットに対し、アナロジー生成によるデータ拡張を適用すると、既存の大規模言語モデルを用いた言い換え手法を凌ぐ性能向上を確認できた。
## 2 関連研究
自然言語処理におけるデータ拡張手法で代表的なものに言い換えべースの手法がある。言い換えとは与えられたテキストの意味を変えずに違う言葉で表現したテキストを生成することである。本研究の提
案手法と類似した言い換え手法に単方向翻訳という、元のテキストを一度他の言語に翻訳し、逆翻訳手法と違って、元の言語に戻すことのない言語を横断した方法がある [7]。この方法は多言語のデータセットでよく用いられ、言語が翻訳によって変換されたとしても、意味は保たれているため言い換え手法となると考えられている。
提案手法のアナロジー生成によるデータ拡張は言語を横断する代わりに、ドメインを横断する。単方向翻訳では意味が保存されるのに対し、提案手法では元々のテキストの論理構造や意味の関係とそれによって生じる印象が保存される。そのため、抽象的な言語理解や曖昧なニュアンスを捉えることが必要なタスクに対するデータセットに対して有効であると考えられる。例えば、レビューテキストからレー ティングを予測するレーティングタスクなどの場合、製品カテゴリーをドメインとみなし、各々のレビューテキストが属するドメインをベースドメインとし、属していない他のカテゴリーをターゲットドメインとみなすことで提案手法を適用できる。
また、近年大規模言語モデルを用いた言い換えベースのデータ拡張手法も提案されている $[8]$ 。
## 3 実験
## 3.1 データセット
提案手法によって拡張するデータセットとして言語モデルの日本語理解能力を評価するベンチマー クの JGLUE の JNLI[3] を選んだ。JNLI は自然言語推論のデータセットで、前提文が仮説文に対して、「含意」「矛盾」「中立」の関係のうち、いずれかのラベルが付与されている。このデータセットは現在、訓練データと検証データのみ公開されているため、訓練データから 2500 個のデータをランダムに抽出し、そのうち 1000 個を訓練データ、 1500 個を検証データとし、元々の検証データをテストデータとした。この訓練データに対してデータ拡張を行う。拡張した訓練データをもとに BERT をファインチュー ニングし、自然言語推論タスクの性能向上を図る。 また、BERT には東北大学の乾研究室が公開している bert-base-japanese-v $3^{11}$ を使用する。さらに、比較を行う既存手法として、大規模言語モデルを用いたテキスト言い換えによるデータ拡張 (Aug GPT)[8] もこのデータセットに適用する。また、この既存手法表 1 JGLUE の JNLI に対してデータ拡張を行い、訓練データ 1 つあたりの拡張するデータ数の場合分けによる、自然言語推論タスクの正解率
で用いる大規模言語モデルは Gemini Pro である。
## 3.2 提案手法
類推を行う際には、ベースドメインとターゲットドメインを決定する必要がある。本研究で拡張するデータセットでは、大規模言語モデルがターゲットドメインを自ら決めるようにプロンプトを設計した。ゆえに、事前にどのドメインに写像を行うかは決まっておらず、モデルの挙動によって生成される文が大きく変わることが予想される。また、提案手法と既存手法の拡張データサイズの影響を測定するため、6 通り (訓練データ 1 つあたり 1 個から 6 個のデータを拡張する)の実験した。
## 3.3 結果・考察
表 1 に結果を示す。提案手法の性能はベースラインと既存手法を一貫して上回っている。さらに、 データ拡張を行うデータ数が増えるほど性能が向上している。反対に、既存手法は増えるほど性能が下がっている。これは同じ意味の拡張データが増えてしまうと、そのデータはドメインも同じになるので、ドメイン固有の具体性にモデルが過適合していると考えられる。それに対し、提案手法はドメインを横断するため、ドメインの固有性を超えた抽象的な推論能力獲得に成功していると考えられる。
## 4 おわりに
本研究では、大規模言語モデルを用いたアナロジー生成に基づくデータ拡張手法 (Aug AnaloGPT) を提案し、自然言語処理 (NLP) におけるデータセットの多様性を増加させ、モデル性能の向上を目指しました。この手法は、文の論理構造や意味の関係性が類似している類比文を生成することによって、特に数千例以上のデータセットにおいて有効であることが示されました。JGLUE の JNLI データセットへの適用により、従来の言い換えに基づくデータ拧張手法を上回る性能向上が確認された。
## 5 参考文献
## 参考文献
[1] Steven Y. Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard Hovy. A Survey of Data Augmentation Approaches for NLP. InFindings of the Association for Computational Linguistics: ACL-IJCNLP,Volume 3, pages 968-988, Online, Association for Computational Linguistics. 2022.
[2] Itsuki Okimura, Machel Reid, Makoto Kawano, Yutaka Matsuo. On the Impact of Data Augmentation on Downstream Performance in Natural Language Processing. InProceedings of the Third Workshop on Insights from Negative Results in NLP,, pages 88-93, Dublin, Ireland. Association for Computational Linguistics, 2022.
[3] Kentaro Kurihara, Daisuke Kawahara, Tomohide Shibata. Jglue: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pages 2957-2966, 2022.
[4] G. Team, et al. Gemini: A Family of Highly Capable Multimodal Models. In arXiv:2312.11805, 2023.
[5] 鈴木宏昭. 類似と思考. ちくま学芸文庫, 2020.
[6] Cheng Jiayang, et al. Storyanalogy: Deriving story-level analogies from large language models to unlock analogical understanding. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, p. 11518-11537, 2023.
[7] Bohan Li, Yutai Hou, Wanxiang Che. Data Augmentation Approaches in Natural Language Processing: A Survey. AI Open,Volume 3, Pages 71-90, 2022.
[8] H. Dai, et al, AugGPT: Leveraging ChatGPT for Text Data Augmentation. In arXiv:2302.13007, 2023. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-1.pdf | # Compositional augmentation policy using different formulas for the notion of middle sentence for low resource machine translation
CHEN Jin and Yves LEPAGE
早稲田大学大学院情報生産システム研究科
jin.chen@asagi.waseda.jp yves. lepage@waseda.jp
}
\begin{abstract}
Middle sentence generation is a technique that, given a start sentence and an end sentence, outputs a sentence with middle semantics. We aim to further explore formulas for middle sentence generation and construct a compositional policy to combine these formulas into better translation models. We study particular and general types of formulas: particular formulas are based on specific words and general formulas are based on the IDF score of each individual word. We use these formulas as corpus augmentation operations and define a policy that automatically constructs a breadth-first tree which finds the node with the least perplexity as the best node. Results show that our policy provides significant improvements over our baseline.
\end{abstract
## 1 Introduction
The idea of middle sentence generation is based on a specific analogy [1]:
## Start : Middle :: Middle : End
It takes two sentences from the corpus as start sentence and end sentences and generates a new sentence whose semantics lies at the semantic midpoint of the two start and end sentences. If sentences are represented by vectors, the basic formula for the vector of a middle sentence is thus as follows:
$
\overrightarrow{\text { Middle }}_{\text {basic }}=\frac{1}{2} \times(\overrightarrow{\text { Start }}+\overrightarrow{\text { End }})
$
Some studies have demonstrated the effectiveness of data augmentation methods based on the idea of middle sentence generation for natural language processing tasks $[2,3,4,5,6]$. However, they have limitations as they explore various different formulas by evaluating various data augmentation results that use these different formulas.
This paper aims to continue the exploration of genera- tion formulas that use the notion of middle sentence, by constructing a comprehensive framework that builds upon several proposed generation formulas.
## 2 Sentence generation based on the notion of middle sentence
## 2.1 Basic and renormalized formulas
New sentences can be generated directly as middle sentences. This has been explored in works like [4]. The main drawback is that the middle vector might not be a vector that actually fits a sentence vector. The consequence is that, when decoding from the vector, the generated sentence suffers problems: repeated words, sentences somehow falling short off, inconsistent semantics.
So as to remedy to this problem and release the constraint on the middle vector, more freedom can be given to generation by creating a vector sustained by the start and the middle sentence, instead of the start and end sentence [6]. This allows the creation of sentences with possibly new semantics
$
\overrightarrow{\text { End }}_{\text {basic }}=2 \times \overrightarrow{\text { Middle }}-\overrightarrow{\text { Start }}
$
The previous formulas (1) and (2) do not take into account the fact that the norms of the generated middle or end vectors might be too short for being an accurate vector representation of a sentence. Renormalization is an answer to this problem. It makes the vectors easier to decode into reasonable sentences by reducing the non-felicitous influence of too short norms $[4,5,6]$. The renormalization formulas are:
$
\text { Middle }_{\text {renorm }}=\frac{\| \overrightarrow{\text { Start }\|+\| \overrightarrow{\text { End }} \|}}{\|\overrightarrow{\text { Start }}+\overrightarrow{\text { End }}\|} \times \overrightarrow{\text { Middle }_{\text {basic }}}
$
$
\overrightarrow{\text { End }}_{\text {renorm }}=\frac{2 \times \| \text { Middle }\|-\| \overrightarrow{\text { Start }} \|}{\| 2 \times \text { Middle }- \text { Start } \|} \times \overrightarrow{\text { End }}_{\text {basic }}
$
In this paper, we adopt generation of the end sentence.
## 2.2 Influence of specific words
Taking into account low-frequency words can provide richer and more acute semantics to the generated vector representations. For the same reasons, giving some weight to hapaxes can lead to vectors positively biased towards rarer formulations. By contrast, inhibiting the influence of more frequent words can solve the problem of overloading the generated sentence with grammatical words. For all the previous reasons, we propose a series of formulas that leverage the frequency of different words.
## 2.2.1 Low frequency words
It has been observed that giving more weight to rare words can enrich the calculated sentence vectors and can lead to better generated sentences [4]. The low frequency words in appearing in the two put sentences can be added to the sentence vector weighted by some factor $\lambda$. Although the original proposal was for middle sentences, we apply it to end sentences:
$
\overrightarrow{\text { End }_{\text {lowfreq }}}=\overrightarrow{\text { End }_{\text {renorm }}}+\lambda \times \overrightarrow{w o r d}_{\text {lowfreq }}
$
## 2.2.2 Hapaxes
A reinforced view over the previous one that took into account low frequency words, is to consider the addition of the average of all hapax embeddings in the start and middle sentences.
$
\overrightarrow{\text { End }}_{\text {hapaxes }}=\frac{1}{1+n} \times\left(\overrightarrow{\text { End }}_{\text {basic }}+\lambda \times \sum_{1}^{n} \overrightarrow{\text { word }}_{\text {hapaxes }}\right)
$
## 2.2.3 Stop words
The previous formula for hapaxes added information to the sentence vector. Similarly, and by opposition, one can imagine subtracting the average vector of all embeddings of stop words to reduce their influence on the generated sentence.
$
\overrightarrow{\operatorname{End}}_{\text {stopwords }}=\overrightarrow{\operatorname{End}}_{\text {renorm }}-\left(\lambda \times \frac{1}{n} \sum_{1}^{n} \overrightarrow{\text { word }}_{\text {stopwords }}\right)
$
## 2.3 Generalization: taking idf of each word into account
A generalization of the previous formula can be obntained by taking into account their inverse document frequecy (idf). Here, documents are each individual sentence. This allows to balance the information of words according to tehir frequency. The additional part is adapted through the factor $\lambda$.
$
\overrightarrow{E n d}_{\text {all }}=\overrightarrow{\operatorname{End}}_{\text {renorm }}-\left(\lambda \times \frac{1}{n} \sum_{1}^{n}(\text { idf } \times \overrightarrow{\text { word }})\right)
$
In order to not influence too much by the norm of each word, this last formula renormalizes words before incorporating their embedding to the calculated vector.
$
\overrightarrow{\text { End }}_{\text {all+norm }}=\overrightarrow{\text { End }}_{\text {renorm }}-\left(\lambda \times \frac{1}{n} \sum_{1}^{n}\left(\frac{\text { idf }}{\| \text { word } \|} \times \overrightarrow{\text { word }}\right)\right)
$
## 3 Compositional augmentation policy
Text AutoAugment is a compositional framework whose core idea is to generate new synthetic text by combining individual editing operations to form a complete sequence [7]. The framework is not only capable of generating multiple sequence instances at once, but it can also automatically select the best-performing augmented dataset among all the ones generated. Text AutoAugment has been proposed for text classification.
We propose to adopt this compositional framework for data augmentation for the task of data augmentation in machine translation. The operations in our framwork will be the proposed formulas for sentence generation. Our framework defines a similar policy to Text AutoAugment, called $\mathscr{P}$, that contains $N$ operations $\mathscr{O}$. For each operation 0 , we define:
$
0=\langle t, \lambda, \theta\rangle
$
where:
1. $t$ is the type of generation formula, i.e. the five proposed formulas and the renormalized end sentence formula.
2. $\lambda$ is the weight of the extra term in the formula. Note that the renormalized end sentence formula can be seen as the multiplication of $\lambda$ with a zero vector. $\lambda \in[0,1]$.
3. $\theta$ represents the threshold for sentence filtration. We use Euclidean distance to determine whether the bilingual sentences are parallel. $\theta \in[0.3,0.6]$.
Our framework takes a parallel corpus as input, stores it to the root node of an exploration tree, and trains a machine translation model without any augmented data from the original parallel corpus. Subsequently, for each node, the framework creates $N$ daughter nodes according to the number of operations in the policy $\mathscr{P}$. The corpus on a daughter node is obtained by data augmentation using the corresponding operation 0 .
At a tree depth of 1, the node's model is trained on the corresponding corpus while at depths greater than 1, the node's model is fine-tuned on the parent node's model using its own corpus. When the child node's perplexity is less than the parent node's, the end sentence generation of daughter nodes stops and this daughter node is discarded.
The framework will finally compare perplexities of all models on the leaves and select the node with the smallest perplexity as the best node, with the path from the root node to that node. This path represents the best operational solution. The complete framework is illustrated in Figure 1.
Figure 1 Proposal: compositional augmentation framework
## 4 Experimental setup
## 4.1 Machine translation engine
We use the OpenNMT-py toolkit [8] to create all the necessary models. Each model is built using an encoderdecoder architecture based on the Transformer model [9].
## 4.2 Data
We use the German and Upper Sorbian language datasets from the WMT22 website ${ }^{1)}$ for our experiments. Our model training scheme follows the original division: 60,000 instances for training, 2,000 for validation, and 2,000 for testing. Details of data are shown in Table 1.
Table 1 Statistics on WMT 2022 German-Upper Sorbian
## 5 Results
## 5.1 Analysis of different thresholds
We obtain 120,000 parallel sentence pairs when generating new sentences according to formulas. We set thresholds from 0.3 to 0.6 in steps of 0.05 for filtration and conduct seven series of experiments with the best weight of each formula. BLEU scores of models trained based on the augmented corpora generated by each formula at different thresholds for German to Upper Sorbian translation are shown in Figure 2.
Overall, the increase in the threshold value has a negative impact on the model, leading to a decrease in BLEU, but the threshold does not allow a more refined representation of the differences in the augmented corpus. Most models perform worst at a threshold of 0.6 as well as best at a threshold of 0.4. The best model uses the renormalized idf-weighted formula with a threshold of 0.4.
Comparing the best results for each formula, all models trained from formulas perform better than the unaugmented model and none of the formulas except the formula for averaged hapaxes scores perform lower than the baseline in BLEU. The renormalized idf-weighted formula, that was proposed last as a generalization (see Formula (9)), shows significant improvement in terms of BLEU and chrF2. Both the IDF-weighted formula and the renormalized IDFweighted formula show relatively superior performance in both directions.
Figure 2 Variation in BLEU scores when using different thresholds (German to Upper Sorbian)
## 5.2 Compositional augmentation policy
We construct a policy with $\mathrm{N}=6$ operations. Each operation is a separate formula with its optimal weight and threshold.
We compare the optimal nodes in both directions and compare with the non augmented model and the baseline model. Our policy shows significant improvements in all three metrics. This is shown in Table 2.
& BLEU & chrF2 & TER \\
\cline { 2 - 6 } & Renorm. & 116 & $33.3 \pm 1.1$ & $59.0 \pm 0.8$ & $43.7 \pm 1.0$ \\
\cline { 2 - 6 } & Com. policy & 1,840 & $\mathbf{3 5 . 0} \pm \mathbf{1 . 1}$ & $\mathbf{6 4 . 9} \pm \mathbf{0 . 8}$ & $\mathbf{4 0 . 9} \pm \mathbf{0 . 9}$ \\
\cline { 2 - 7 } & Renorm. & 1,303 & $33.4 \pm 1.1$ & $61.1 \pm 0.8$ & $46.1 \pm 1.0$ \\
\cline { 2 - 7 } & Com. policy & 1,213 & $33.3 \pm 1.1$ & $\mathbf{6 3 . 7} \pm \mathbf{0 . 8}$ & $\mathbf{4 1 . 8} \pm \mathbf{0 . 9}$ \\
Table 2 Comparison of compositional policy with no augmentation model and baseline model
The results in Table 3 show details of our policy in the direction German to Upper Sorbian. We observe that finetuned nodes at depth 2 all have much lower perplexity than the first layer of the trained-only model, while no node arrives at depth 3. The main reason is that the amount of newly generated data in this low-resource setting is insuf- ficient.
& & Total path (s) & Perplex. & \\
Table 3 Results of nodes in compositional policy (German to Upper Sorbian). Node with least perplexity is No. 35, generation path is formula for renormalized stopwords + idf-weighted formula.
## 6 Conclusion and limitations
Our results demonstrated significant improvements with our model: +1.7 in BLEU, +5.9 in chrF2, and -2.8 reduction in TER in the German to Upper Sorbian direction. In the Upper Sorbian to German direction, the improvements obtained are: +2.6 in chrF2 and -4.3 in TER.
As a limitation, with our policy, the exploration tree is difficult to generate at higher depths in this low-resource setting. Also, the cost of constructing a compositional augmentation tree is high, which leads to the issue of local optima when determining hyper-parameters.
## References
[1] Pengjie Wang, Liyan Wang, and Yves Lepage. Generating the middle sentence of two sentences using pre-trained models: a first step for text morphing. In Proceedings of the 27th annual meeting of the Association for Natural Language Processing, pp. 1481-1485, 2021.
[2] Koki Osawa and Yves Lepage. Data augmentation of parallel data for style transfer by generation of middle sentences (in japanese). In Proceedings of the 28th Annual Conference of the Association for Natural Language Processing, pp. 1376-1380, Hamamatsu, Japan, March 2021. Association for Natural Language Processing.
[3] Zhicheng Pan, Xinbo Zhao, and Yves Lepage. Sentence analogies for text morphing. In Proceedings of the workshop 'Analogies: from Theory to Applications (ATA@ICCBR 2022)', held in conjunction with the 30th International Conference on Case-Based Reasoning (ICCBR), Nancy, France, 2022.
[4] Matthew Eget, Xuchen Yang, and Yves Lepage. A study in the generation of multilingually aligned middle sentences. In Zygmunt Vetulani and Patrick Paroubek, editors, Proceedings of the 10th Language \& Technology Conference (LTC 2023) - Human Language Technologies as a Challenge for Computer Science and Linguistics, pp. 45-49, April 2023.
[5] Wenyi Tang and Yves Lepage. A dual reinforcement method for data augmentation using middle sentences for machine translation. In Masao Utiyama and Rui Wang (Research Track Co-Chairs), editors, Proceedings of Machine Translation Summit XIX, Vol. 1: Research Track, pp. 48-58, Macau SAR, China, September 2023.
[6] Xiyuan Chen. Data augmentation for machine translation using the notion of middle sentences. Master's thesis, Graduate School of Information, Production and Systems, Waseda University, 2023.
[7] Shuhuai Ren, Jinchao Zhang, Lei Li, Xu Sun, and Jie Zhou. Text AutoAugment: Learning compositional augmentation policy for text classification. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 9029-9043, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[8] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, 2017. Association for Computational Linguistics.
[9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 4-9, 2017, Long Beach, CA, USA, pp. 5998-6008, 2017.
## A Result analysis under different thresholds (the other direction)
Figure 3 Same as Figure 2, but for the other direction (Upper Sorbian to German)
## B Comparison of formulas under optimal parameters
We give the statistics of the results of models trained under each formula. Results are shown in Tables 4 and 5.
& & & BLEU & chrF2 & TER \\
Table 4 Statistics of best results for each formula (German to Upper Sorbian). Scores in bold face are statistically different and higher than the baseline (no aug.)
## C Results for compositional augmentation policy (other direction)
Results of our compositional augmentation policy in the direction of Upper Sorbian to German are shown in Table 6.
& & & BLEU & chrF2 & TER \\
Table 5 Same as Table 4, but in the other direction (Upper Sorbian to German)
& & Total path (s) & Perplex. & \\
Table 6 Results of nodes in compositional policy (Upper Sorbian to German). Node with least perplexity is No. 10, generation path is formula for averaged hapaxes + renormalized LFW formula. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-2.pdf | # 異言語間対話支援における誤訳警告メッセージの有効性調査
Yunmeng $\mathrm{Li}^{1}$ 鈴木潤 1,3 森下睦 2 阿部香央莉 3,1 * 乾健太郎 $4,1,3$
1 東北大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 ${ }^{3}$ 理化学研究所 ${ }^{4} \mathrm{MBZ}$ MAI
li.yunmeng.r1@dc.tohoku.ac.jp
## 概要
現状の機械翻訳システムは,実用レベルに達したと言われるようになったが,異言語間対話支援に利用する場面では,ユーザの意図を正しく翻訳できるかという観点で,まだ実用レベルとは言い難い. 誤訳を多く含む異言語間対話支援において,機械翻訳システムを利用する実用的なアプローチの一つは,誤訳に関する警告メッセージを提示し,ユーザの混乱を軽減する方法である. しかし,このような警告メッセージがユーザにどのように受け入れられ,また,どのような利益をもたらすのかについては未検証課題である. 本研究では, この課題に取り組み,異言語間対話支援における誤訳警告メッセージの有効性を検証する。
## 1 はじめに
国際的な交流の需要が年々高まっている昨今, Google Translate ${ }^{1)}$ や DeepL ${ }^{2}$ などの機械翻訳アプリケーションが活躍する場面も多くなっている。また, WeChat やLINE などの対話アプリケーションにも,異言語間のコミュニケーションを促進するための翻訳機能が組み込まれている。更に,UD Talk ${ }^{3}$ や Hi Translate4)などのプラグイン翻訳アプリケーションも,オンラインコミュニケーションの進化と共に広まっている。
機械翻訳技術は,ニューラル機械翻訳 $[1,2,3]$ の急速な発展に伴って, 書き言葉の翻訳において頑健な性能を示している $[4,5,6]$. 一方で,現行の手法でも,話し言葉や日常会話の翻訳において話者の意図を正しく翻訳できているかという観点で必ずしも十分ではないことが指摘されている [7]. 特に異言
語間の対話によるコミュニケーションでは,システムが誤訳を生成すると,他の言語を理解できない話し相手が誤りに気づかず,誤解を引き起こして,コミュニケーションを妨害する可能性がある $[8,9]$.
対話特有の性質により,対話翻訳において「正解」 の定義が複雑であり $[10,11,9,12]$, 誤訳のない対話翻訳システムの実現を目指すことは非現実的である. その代わりに,混乱を減らすために誤訳の可能性を警告メッセージとして提示することで,翻訳システムを強化し,異言語間対話を支援するアプロー チが現実的と考えられる。しかし,このような警告メッセージの認識と効果は,これまで検証されておらず,未だに不明確である。
本研究では,この不明確な点を明らかにするために,異言語間対話を支援する機械翻訳の誤訳警告メッセージを提供した場合,警告メッセージが異言語間コミュニケーションにどのように役立つかを人手による主観評価 (アンケート調査) により検証する. アンケートデザインを図 1 に示す. 参加者は 3 つの選択肢の中から最も妥当な回答を選び,模擬的な異言語間対話シナリオに参加する。誤訳が発生するたびに,警告メッセージが表示される.対話の最後には,参加者は警告メッセージに対する認識に関する主観評価の質問に答える。具体的には,クラウドソーシングを通じて人手による主観評価を収集した. その結果,(1) 警告メッセージは異言語間対話支援に有用であり,(2) ユーザの対話行動に関して行動変容を促す可能性があることが示された.
この調査は,警告メッセージの実用性を裏付けるものであり,ユーザがどのようなことを警告メッセージに期待しているか,ユーザに効果的な警告メッセージのあり方を示唆する結果となっている.本研究は,異言語間対話支援における機械翻訳の誤訳警告メッセージがユーザに与える影響を初めて調査したものであり,この結果は,より円滑な異言語間対話支援の研究に寄与する貴重な知見を提供する。
図1 アンケート調査の説明図. 参加者は,警告メッセージなし(左)と警告メッセージあり(右)の2 ラウンドの対話に参加する.どちらのラウンドでも,内容と回答の選択肢は同じである.2つのラウンドの順番,すなわち「警告メッ
## 2 関連研究
先行研究においては,不完全ながらも対話に機械翻訳を導入することで異言語間コミュニケーションをより活性化できるという利点が報告されている [7]. 一部の研究者は,対話翻訳の表現を向上させるためにモデルを訓練してきた $[11,8,9]$. しかし,曖昧性, 省略, 複数話者など対話ドメイン独自の特徵によって, 対話で翻訳精度を向上させることは困難な課題となっている $[10,9,12]$. これら既存の研究に対し我々は,機械翻訳の精度を 100 \%にするのは困難であるとの前提に立ち,対話翻訳のユーザエクスペリエンスを向上させるためのアプローチに焦点を当て,誤訳の可能性をユーザに示唆する警告メッセージを提示することを提案する.翻訳誤りについては近年対話翻訳誤訳検出器の研究もあり, 対話翻訳の一貫性と正確性の観点から評価をされている [13]. 誤訳検出器の予測が警告メッセージに変換される場合, 我々の調査は誤訳検出器の実用的な有効性を評価するのに役立つ可能性がある.
## 3 調査デザイン
異言語間対話のシミュレーション誤訳によっての混乱を軽減するため,我々は警告メッセージの提示を提案する. 本研究では,その警告メッセージの有効性を調査するため,クラウドソーシングを通じて人手による主観評価を収集した. 図 1 に,評価を収集するためのアンケート調査のデザインを示す.動的なリアルタイム対話は制御が難しく,実験のコストも高い.そこで,本研究では Persona-chat [14] の対話データを基に,ユーザが対話アプリ上で機械翻訳を介して外国人パートナーと対話する状況をシミュレートすることにした。調査の参加者には,はじめに対話の先行文脈として直前の 3 発話(相手の発話 1 , 自分の発話 1 , 相手の発話 2 ) が提示される.参加者は,次の自分の発話として,提示された 3 つの選択肢から最も文脈に合った応答を選択する.この時,直前の相手の発話または送信した自分の発話に対して,誤訳の可能性が高い場合に警告メッセー ジを提示することを考える.実験の目的は,この警告メッセージの有無によって参加者の反応がどのように変化するかを調査することである.
本研究では,対話参加者は相手言語に習熟していないユーザであると仮定する。この想定をシミュレートするため,参加者には,参加者自身の応答,相手発話の機械翻訳結果,およびそれに対する警告メッセージだけを提示して調査を行った.すなわち,調査内のすべてのテキストは,参加者の母語で提示されている.
対話データのフィルタリング対話データの質を保証するために,Amazon Mechanical Turk のクラウドソーシングを通じて,Persona-chat から一貫性がない対話を排除した. ここでの「一貫性がない」とは,質問が無視される,不自然な話題の切り替えがある,相手の発言に対処していない,応答が順序から外れているように見える,または一般的に対話の
流れをフォローするのが困難であるものとした。クラウドワーカーの回答に基づいて各対話を採点し, 1,500 個の対話のうち, 10 人のうち少なくとも 7 人が一貫しているとマークした 200 件を獲得した. この 200 件のうち,6件を異言語間対話のシミュレー ションのベースとして使用した.
誤訳データ誤りを含む翻訳文(誤訳文)は次の手順で収集した.まず,英日対話翻訳評価データセット BPersona-chat [15] を BLEU スコア [16] が 4.9 の低品質機械翻訳モデル5)を使って相手発話を翻訳した. 次に,得られた訳文に対し, Google 翻訳による別言語への翻訳とターゲット言語への逆翻訳を繰り返し (実験では 20 回), 元文からさらに逸脱した訳文を収集した。最後に,得られた訳文から文法誤りや不適格な内容等の誤りが含まれているものを手作業で選んだ。
警告メッセージ警告メッセージは,対話での誤訳をアンケート調査の参加者に通知するように設計した. 図 1 に示したように,対話文が誤訳である場合,参加者に対して誤訳を提示する警告メッセージが表示される. 対話では受信と送信の両方が不可欠であるため,警告メッセージを 2 つのタイプに分類した. 一方は,受信したメッセージの誤訳を警告するタイプであり,もう一方は、最後に送信したメッセージの誤訳の可能性を示すタイプである6).
アンケート質問対話シミュレーションの後に,警告メッセージに対する参加者の評価を収集するためのアンケートを行う. 参加者はまず警告メッセー ジなしで誤訳に気づいたかどうかを答えるよう求められる. 参加者が「はい」と回答した場合,2つのリッカート尺度 $[17,18]$ の設問に進む. 最初の設問では,「誤訳がどのくらい対話を続けることを妨げられたか」を評価する.2 番目の設問では「誤訳が具体的にどの位置にあったかを把握できたか」尋放る. 参加者は 2 つの設問に対し 1~5(数字が大きいほど誤訳に対する認識や理解が高い)で評価する。
さらに,参加者は警告メッセージが対話の続行に役立ったと思う程度を評価し, 警告メッセージに追加して欲しい機能をにチェックを入れる. 選択可能な機能は以下の通り:翻訳の正答率を示す,翻訳候補を表示する,翻訳の誤りを具体的に示す,相手の気持ちを表示する機能. 7)
5)低品質機械翻訳モデルの学習は付録 $\mathrm{A}$ を参照.
6)図 1 は前者の例である.
7)特に欲しい機能がなければ空欄での回答も可能とした.
## 4 クラウドソーシング実験
調査用のアンケートは英語,中国語,日本語で作成し,言語間の違いを観察した.アンケートでの対話データは,英語が堪能な中国語(又は日本語)の母語話者により母語に翻訳し, 品質を確保した. 警告メッセージの 2 種類ごとに対話を 3 セットを用意し, 全部で 6 セットの対話を提供した. 参加者は,(1) 対話相手は母国語以外の言語で話しかけている前提であること,(2) 機械翻訳システムが相手のメッセージを翻訳し,対話はユーザの母国語でのみ表示されること,(3) 対話口グを読み,3つの選択肢のうち最も妥当なものを選ぶこと, (4) 送られてきたメッセージは奇数行目に,自分の答えは偶数行目に表示されることを認識するよう指導した。
回答順番による影響を最小限にするため, 参加者
るか,警告メッセージありーなしの順番で回答するかをランダムに割り振りした。このとき,どちらの順番になるかは参加者には知らせずに調査を行った. 警告メッセージが表示されるラウンドでは,参加者に警告メッセージの役割を説明し,応答選択の際に参考にできることを伝えた。
各セットに対して少なくとも 50 人の参加者を募り,1 人には同じ対話が 2 回以上回答しないようにした. 各言語の調査は Amazon Mechanical Turk(英語), WenJuanXing (中国語), CrowdWorks (日本語) でそれぞれ実施した.調査の参加者には結果を学術目的で使用することを通知した。
## 5 結果と分析
アンケート調査の結果, 最終的に英語では 604 件,中国語では 635 件,日本語では 621 件の回答が集まった. 3 言語において,約 $70 \%$ の参加者が警告メッセージを「4-役に立った」以上と評価した8).
警告メッセージの有無表 1 により,誤訳に気づいた割合は,アンケートのデザインにおける回答の順番(警告メッセージを含むラウンドを先に行うか否か)に関わらず一貫している. さらに,誤訳に気づいたほとんどの参加者は, その誤訳によって対話の進みが妨害されたと見なした。
注目すべき点として,英語と中国語の結果は比較的類似しているが,日本語の結果の傾向は若干異なっている. 特に警告メッセージのない誤訳を認識
表 1 警告メッセージがない場合に誤訳に気づくかどうかの質問についての結果. 誤訳に気づいた参加者は,誤訳をどの程度対話を妨害したと考えたかを評価し続けた。
警告メッセージなしを先に回答
警告メッセージありを先に回答
& & & \\
英語 & $77.2 \%(234)$ & $70.5 \%(165)$ & $77.4 \%(234)$ & $67.1 \%(157)$ \\
中国語 & $70.2 \%(228)$ & $72.4 \%(165)$ & $77.7 \%(241)$ & $62.7 \%(151)$ \\
日本語 & $54.5 \%(175)$ & $69.7 \%(122)$ & $52.7 \%(158)$ & $70.3 \%(111)$ \\
図 2 警告メッセージによって参加者の行動が変化した割合.
できたかどうかという点について,英語や中国語による調査よりも日本語による調査での結果が顕著に低い結果となった.この結果は, 日本語の言語的特異性,特に省略の多さに関連している可能性がある. 日本語によるアンケート調査の参加者は, 主語や目的語が省略されることが多い日本語に合わせて,誤訳を省略の一種であると考えてしまったと見られる。警告メッセージは,その表現が省略されたのではなく誤りであることを日本語話者に理解してもらうのに役立ったと考えられる。
ユーザの行動に与える影響警告メッセージに関連した選択を分析し,3つのケースに分類した:(1)警告メッセージの有無に関わらず選択を変えなかった (2) 警告メッセージにより選択を変えた (3) 警告メッセージが表示される以前に選択を変えた。(1) は参加者が警告メッセージの影響を受けなかったことを示し,(2)は参加者が影響を受けたことを示している。また,(3) は間接的に警告メッセージの影響を受けていると考えられる。なぜなら,警告メッセージを表示するラウンドでは「警告がある場合,誤訳がある(ない場合は誤訳が含まれない)」という指示により,参加者が「誤訳がない」という情報も用いることができるためである. 図 2 より, 約 $75 \%$ の参加者が警告メッセージによって直接的または間接的に選択を変えたということが分かる.
## 受信時または送信時における警告メッセージの有
用性対話文の誤訳を受信時または送信時に指摘するかどうかに関わらず, 3 言語全てで $60 \%$ \%上の参加者が警告メッセージが役に立ったと回答した9).
警告メッセージに期待される機能中国語および日本語による参加者は,誤訳が具体的に発生している所を示す機能に対して期待を示した. 中国語圈の参加者は誤訳応答を解釈し直す必要があるかどうかを判断するため,正解率も知りたがっている。一方, 日本語圏の参加者は他の翻訳案を参考にすることを検討している.英語圏の参加者はすべての機能に対し平均的に投票したが,相手の感情を示す機能に投票した参加者の人数は他言語と比較すると少なかった.まとめると,警告メッセージを強化するためには,誤りが発生している所を示すことに焦点を当てた方が良い可能性があるということが判っ $\hbar^{10)}$.
## 6 おわりに
我々は,異言語間対話を支援するため,対話における誤訳を提示する警告メッセージの有効性を評価する調査を実施した. クラウドソーシングを通じて,対話誤訳警告メッセージに対する人手による主観評価を収集し,その回答により警告メッセージが有益であるとの結論に至った。警告メッセージの有無に基づいて参加者の選択を比較することにより,警告メッセージが参加者の行動に影響を与えることが明らかになった.また,参加者は警告メッセージに対して,(1) 翻訳の具体的な誤りを示すこと,(2)正解率を提示すこと,(3) 代替翻訳の提案を行うことを期待していることが示された.
## 謝辞
本研究は JST 科学技術イノベーション創出に向けた大学フェローシップ創設事業 JPMJFS2102,JST CREST Grant Number JPMJCR20D2, JST ムーンショッ卜型研究開発事業 JPMJMS2011-35 の支援を受けたものである. Amazon Mechanical Turk , WenJuanXingと Crowdworks(https://crowdworks.jp/)においてご協力いただいた皆様へ感謝をししげます。研究を進めるにあたり議論に参加していただいた東北大学
Tohoku NLP グループの皆様へ感謝いたします.参考文献
[1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014
[2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[3] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N Dauphin. Convolutional sequence to sequence learning. In International conference on machine learning, pp. 12431252. PMLR, 2017.
[4] Shuming Ma, Dongdong Zhang, and Ming Zhou. A simple and effective unified encoder for document-level machine translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3505-3511, Online, July 2020. Association for Computational Linguistics.
[5] Sameen Maruf and Gholamreza Haffari. Document context neural machine translation with memory networks. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1275-1284, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[6] Toshiaki Nakazawa, Nobushige Doi, Shohei Higashiyama, Chenchen Ding, Raj Dabre, Hideya Mino, Isao Goto, Win Pa Pa, Anoop Kunchukuttan, Yusuke Oda, Shantipriya Parida, Ondřej Bojar, and Sadao Kurohashi. Overview of the 6th workshop on Asian translation. In Proceedings of the 6th Workshop on Asian Translation, pp. 1-35, Hong Kong, China, November 2019. Association for Computational Linguistics.
[7] David C Uthus and David W Aha. Multiparticipant chat analysis: A survey. Artificial Intelligence, Vol. 199, pp. 106-121, 2013.
[8] M. Amin Farajian, António V. Lopes, André F. T. Martins, Sameen Maruf, and Gholamreza Haffari. Findings of the WMT 2020 shared task on chat translation. In Proceedings of the Fifth Conference on Machine Translation, pp. 65-75, Online, November 2020. Association for Computational Linguistics.
[9] Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, and Jie Zhou. Modeling bilingual conversational characteristics for neural chat translation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5711-5724, Online, August 2021. Association for Computational Linguistics.
[10] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 82-92, Copenhagen, Denmark, September 2017. Association for Computational Lin- guistics.
[11] Sameen Maruf, André F. T. Martins, and Gholamreza Haffari. Contextual neural model for translating bilingual multi-speaker conversations. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 101-112, Brussels, Belgium, October 2018. Association for Computational Linguistics.
[12] Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, and Jie Zhou. Towards making the most of dialogue characteristics for neural chat translation. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 67-79, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[13] Yunmeng Li, Jun Suzuki, Makoto Morishita, Kaori Abe, Ryoko Tokuhisa, Ana Brassard, and Kentaro Inui. Chat translation error detection for assisting cross-lingual communications. In Proceedings of the 3rd Workshop on Evaluation and Comparison of NLP Systems, pp. 88-95, Online, November 2022. Association for Computational Linguistics.
[14] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[15] Yunmeng Li, Jun Suzuki, Makoto Morishita, Kaori Abe, Ryoko Tokuhisa, Brassard Ana, and Inui Kentaro. Bpersona-chat: A coherence-filtered english-japanese dialogue corpus. In Proceedings of NLP2022, pp. E7-3, 2022.
[16] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[17] Ankur Joshi, Saket Kale, Satish Chandel, and D Kumar Pal. Likert scale: Explored and explained. British journal of applied science \& technology, Vol. 7, No. 4, p. 396, 2015
[18] Tomoko Nemoto and David Beglar. Likert-scale questionnaires. In JALT 2013 conference proceedings, pp. 1-8, 2014.
[19] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 17151725, Berlin, Germany, August 2016. Association for Computational Linguistics.
[20] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
表 2 低品質機械翻訳モデルの学習におけるハイパーパラメータ一覧
How much do you think the warning message is helpful in cross-lingual chats?
図 3 警告メッセージが対話の継続に役立ったと考えられた割合.
## A 翻訳モデルの学習設定
低品質機械翻訳モデルを学習する際,まずは BPE [19] でコーパスをトークナイズしてサブワードにする. 語彙の大きさは 32,000 とした. 文脈を考慮するために,2つの入力文を与えて 2 つ連続して出力する 2-to-2 Transformer-based NMT モデル A [10] を学習した. 表 2 にハイパーパラメータの一覧を示している。
## B 結果と分析
図 3 では,3つの言語それぞれの警告メッセージが対話の継続に役立ったと考えられた割合を示している.
様々なタイプの警告メッセージに対する収集された回答は,図 4 に要約されている.
期待される付加情報に関する結果を図 5 に示す.
How much do you think the warning message is helpful in cross-lingual chats? 1 (not helpful at all) $2 \bullet 3 \bullet 4 \bullet 5$ (extremely helpful) Warnings of the received messages.
図 4 受信時または送信時における警告メッセージが対話の継続に役立ったと考えられた割合.
'What features do you think would be helpful if added to the warning messages?' - English Chinese Japanese
図 5 警告メッセージに期待される機能についての結果. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-3.pdf | # LLM の生成・翻訳による指示・応答データセット構築
加藤佑一 中田康太
(株)東芝 研究開発センター
yuichi12.kato@toshiba.co.jp
kouta.nakata@toshiba.co.jp
## Abstract
高品質な日本語の指示・応答データセットを Large Language Model(LLM)よる低コストな構築を目指し、英語での対話に最適化された Llama-2-70B-chat で英語の指示・応答データセットを生成し、それを Llama-2-70B で日本語訳した。本データセットと既存データセットのそれぞれで Swallow-7b をファインチューニングし、日本語 Vicuna QA ベンチマークで GPT-4 により比較評価した。その結果、前者のモデルが約 $75 \%$ の勝率を達成した。さらに、OpenAI の text-davinci-003 との比較でも $60 \%$ 以上の勝率に達した。以上から、LLMによる生成・翻訳による指示・応答データセット生成の有効性が示された。
## 1 はじめに
Large Language Model(LLM)は、 $O(1-1000$ B) のパラメータを持つ大規模なモデルを自己回帰による自己教師あり学習によって、 $O(100-1000$ B $)$ トー クン数におよぶ大量のテキストデータで学習することで、既存の 1 モデル 1 タスクを学習する方式とは異なり、事例をいくつか例示するだけでも多様な後続タスクに汎化できるため、自然言語処理に対してパラダイムシフトを起こした。大量のデータは、主に Webクロールや本などから集められているため、 それらで学習したのみの LLM は、指示に対してしばしば人間の意図とは異なる回答をする。そのために、QA タスクなどを集めた指示・応答データセットにより、事前学習したLLMをファインチューニングすることで、人間の意図に沿って回答するようにLLMをアライメントさせる必要がある。しかし、大規模な指示・応答データセットの構築を人手で行うには、金銭・時間的コストが大きい。本研究では、主に英語のテキストデータで訓練された LLM である Llama 2 [1] を用いて、英語の指示・応答デー タを生成し、それを日本語訳することで、日本語の指示・応答データセット構築が可能か検証した。
Figure 1 指示・応答データセット構築のフロー。
## 2 関連研究
これまでにLLM により指示・応答データを生成する研究は、主に英語で実施されてきた。 Self-instruct [2] では、人間が設定したシードとなるタスクから、GPT-3 [3] により指示・応答データセットを作成した。本データセットで訓練した GPT-3 は、指示に対して、人手で作成したデータセットで訓練した同モデルと人間の評価において同程度のパフォーマンスを示した。Alpaca [4] は、 OpenAI の text-davinci-003を用いて、Self-instruct と同様の方法で指示・応答データを低コストで作成し、そのデータで LLaMA-7b [5] を訓練すると、 text-davinci-003 と類似した回答が可能になると示した。LIMA [6] は、利用可能な指示・応答データの全てを用いるよりも厳選したデータのみで訓練した方がモデルのパフォーマンスが高かったことから、指示・応答データによるチューニングは、デー タ量よりも多様性と品質が重要であると示した。
Figure 2 生成データのスコア分布。
Figure 3 各指示・応答データセットに含まれる文章のトークン数の分布。
Self-alingment [7] は、シードデータから始めて、指示・応答データの生成と生成データによるモデルの訓練を繰り返すことで、モデルのパフォーマンスが向上することを明らかにした。生成の際には、デー タ品質をモデル自身に判定させ、高スコアなデータのみ用いることでデータ量にもパフォーマンスがスケールすると示した。
## 3 指示・応答データセット構築
本章では、LLMによる日本語の指示・応答データセット構築の方法および構築したデータセットの内容・性質について説明する。
## 3.1 方法
指示・応答データセット構築方法の全体フローを図 1 に示した。本手法では、ある言語でのシードデータ、指示・応答を生成するモデル(指示生成モデル)、生成データに対してスコアを付けるモデル (スコア生成モデル)、およびターゲット言語への翻訳用のモデル(翻訳生成モデル)を用意する。シー ドデータを指示生成モデルに入力し、指示生成モデルが得意とする言語で新たな指示・応答データ(マルチターンの会話)を生成し、生成されたデータの品質をスコア生成モデルをスコアリングし、高いスコアのデータを翻訳生成モデルで翻訳することで、 ターゲット言語での指示・応答データセットを構築する。シードデータとしては、OASST1 [8] から高品質な会話データを集めた Openassistant-guanaco [9] より英語データを 3500 個抽出して用いた。指示生成モデルとスコア生成モデルとしては、英語での対話用に最適化された Llama-2-70B-Chatを用いた。翻訳生成モデルには、Llama-2-70Bを用いた。 Self-alingment [7] と同様に、高品質のデータセットを構築するためにスコアリングを実施した。具体的には、スコア生成モデルには生成データの質を 5 段階で判定させて、スコアが $>4.5$ であったデータの
みを抽出した。図 2 に生成したデータのスコア分布を示した。生成データの 8 割以上のスコアが > 4.5 であったことから、スコアを自身で与えているものの Llama-2-70B-chat は指示生成モデルとして優れていると示唆される。生成データの中には、繰り返しが生じて文章として体をなしていないものや、最初の質問文が重複しているもの、文字数が極端に短いものが含まれていたため、それらは前処理により取り除いた。翻訳生成でも繰り返しの文章が生成されることがしばしばあっため、そのような文章もデー タセットから取り除いた。前処理も含めて、「英語指示データ」、「高品質英語指示データ」、「日本語指示データ」の各段階で、データセット数はそれぞれ $57000 \rightarrow 26000 \rightarrow 18000$ となった。「高品質英語指示データ」の段階でデータ数が半分以下になっているのは、重複した質問が多くあったためである。
## 3.2 生成されたデータセット
生成されたデータの一部を付録 $\mathrm{A}$ の表 4 に示した。Llama-2-70B-chat で生成した英語データは、人間と AI アシスタントの会話を模擬できた。 Llama-2-70Bによる翻訳も、日本語として完璧ではないがそれなり品質で翻訳できた。構築したデータセットの特性を見るため、本データセットと既存
Table $2 \frac{\text { 推論時のサンプリングパラメータ }}{\text { Temperature } 0.7}$
Table 3 日本語 Vicuna QA ベンチマークの各モデルの出力例。
質問: 医療サービスの質と効率を向上させるために、人工知能を活用できるシナリオを記述してください。
llama-2-gen (Ours):
もちろんです。人工知能を活用できるシナリオの 1 つは、電子カルテシステムへの自然言語処理技術の統合です。 これにより、医師や他の医療従事者は、患者の症状や病歴などの情報を簡単に入力できます。この情報は、機械学習アルゴリズムによって分析され、病囟の診断や治療計画の開発に役立つ可能性があります。
もう 1 つのシナリオは、チャットボットまたはバーチャルアシスタントの使用です。これらのエージェントは、患者からの質問に回答したり、健康関連のトピックに関するガイダンスを提供したりすることができます。これにより、患者は必要なときにいつでもサポートを受けることができます。
別のシナリオは、画像認識技術の使用です。これにより、放射線科医やその他の専門家は、コンピュータービジョンアルゴリズムを使用して、胸部レントゲン写真や超音波スキャンなどの検査結果を分析できます。これにより、彼らは正確で迅速な診断を行うことができます。
最後に、音声認識技術の使用も考えられます。これにより、看護師やその他の医療従事者は、ベッドサイドで患者と会話することができます。これにより、彼らは患者の感情的および精神的状態を理解し、それに応じて対応することができます。
全体的に見れば、人工知能の応用は、医療サービスの質と効率を大幅に向上させる可能性があります。しかし、注意すべき重要な考慮事項がいくつかあります。例えば、プライバシーとデータセキュリティの懸念があります。 さらに、一部の分野では、人間の介入が依然として不可欠である可能性があります。
alpaca-ja:
人工知能は、患者の健康記録やその他のデータから洞察を得て、医師がより迅速かつ正確な診断を行えるようにすることで、医療サービスの質と効率を向上させることができます。また、機械学習アルゴリズムを使用して、個々の患者に合わせた治療計画を作成し、最適な結果を提供することもできます。
dolly-ja:
1. 電子カルテやその他の医療記録からデータを抽出し、機械学習アルゴリズムで分析します。これにより、特定の患者がどのようなケアを必要としているかを予測することができます。
2. 過去の治療結果をもとに、最適な治療計画を提案する。
3. 病院内外のさまざまな情報源から収集したデータを使用して、臨床的意思決定支援システムを開発する。
4. 自動化されたチャットボットを使って、一般的な健康上の質問に答える。
5. ウェアラブル技術を利用して、患者のバイタルサインを継続的に監視する。
dolly_hhrlhf-ja:
確かに、こここいくつかのアイデアがあります。1つ目は、機械学習アルゴリズムを使用して、特定の種類の病気である可能性が最も高い患者を予測し、医師がより正確な診断を下すのに役立つことです。2つ目は、自然言語処理技術を使用して、電子健康記録から重要な情報を抽出することです。3つ目は、コンピューター支援設計ツールを使用して、病院やその他の医療施設のレイアウ放善領域を見つける最適化することとです。4つ目は、ビッグデータ分析を使用し
の指示・応答データセットの分布を図 3 に示した。既存データセットとして、Alpaca [4]、Dolly [10]、 Dolly-hhrlhf [11] を日本語訳 $[12,13,14]$ したものを示した。Llama-2 のトークナイザーでトークン化してからトークン数を数えている。既存データセットの分布はどれも指数関数的であり、短い文章が多く含まれると分かる。一方で、構築したデータセットは、ガウス分布の形をしており、長文が多いと窥える。各データセットの合計トークン数は、 Alpaca、Dolly、Dolly-hhrlhf、および構築した日本語の指示・応答データセット(Llama-2-gen)のそれぞれで、 $10 \mathrm{M} 、 13 \mathrm{M} 、 6 \mathrm{M} 、 17 \mathrm{M}$ であり、データセットのサイズは、既存のものと同等以上となった。
## 4 構築データセット評価
構築した日本語の指示・応答データセットの評価のため、本データセットと既存のもの $[12,13,14]$ で、LLMをそれぞれファインチューニングし、出力を比較評価した。本章では、ファインチューニング方法、評価方法、および評価結果について説明す
る。LLM としては、Llama-2-7bを日本語で継続事前学習した Swallow-7b(SW-7b) [15]を用いた。
## 4.1 ファインチューニング方法
パラメータ数が大きな LLM の全パラメータをチューニングして保存するには、大きな GPUメモリと大きなストレージが必要となる。本実験では小さな GPU メモリと小さなストレージでも訓練の実行と保存が可能な LoRA [16] を用いた。LoRA は、全パラメータを更新するのではなく、既存の重み $\left(W_{0} \in \mathbb{R}^{d \times k}\right)$ は固定し、低ランクな 2 層の線形行列 $\left(A \in \mathbb{R}^{r \times k}, B \in \mathbb{R}^{d \times r}\right)$ を挟み、それらのパラメータ更新することでモデルを最適化する。学習後の重みは、 $W=W_{0}+B A$ で得られる。本実験では、線形層の全てに LoRA 層を挿入した。訓練時のハイパーパラメータを表 1 に示した。後続タスクの評価としてオープエンドな QAを用いるため、構築データセットからは 1 ターン目の会話を抽出し、Alpaca [4] の指示・応答形式で訓練した。他のデータセットでも同様の指示・応答形式で訓練を実施した。
Figure 4 日本語 Vicuna QA ベンチマークでの(左)SW-7b を構築した指示・応答データセットでファインチューニングしたモデル「SW-7b-1lama2-gen」と既存データセットでのモデルとの対による比較、および(右)text-davinci-003 と前記モデルらとの対による比較。それぞれ「SW-7b-llama2-gen」と text-davinci-003 の勝率を示している。
## 4.2 評価方法
各指示・応答データセットで訓練したモデルを比較評価するため、オープンエンドな QA タスクとして日本語 Vicuna QA ベンチマーク [17] を用いた。Vicuna QA ベンチマーク [18] は、フェルミ問題、ロールプレイの脚本、コーディング、数学問題など、多様な 80 個の質問に対するモデルの解答を、GPT-4 に有用性、関連性、正確性、詳細度合いに基づいて評価させることでモデルの性能を評価する。日本語 Vicuna QA ベンチマークは、それを日本語に訳したものである。構築したデータセットおよび既存の日本語データセットのそれぞれで SW-7B を訓練し、日本語 Vicuna QA ベンチマークに対する各出力について、GPT-4 を用いて比較評価させた。推論時に用いたサンプリングのパラメータを表 2 に示した。その結果を図 4 (左)に示した。本データセットでファインチューニングしたモデルの勝率が、他データセットに対して約 75\% に達した。本要因を調べるために、各モデルの出力を表 3 に示した。質問に対して、前者のモデルは、他のモデルと比べて、多面的な視点からの詳細な解答をしており、これにより高い評価を得たと推察される。さらに、text-davinci-003 との比較も実施した。本結果を図 4 (右)に示した。既存データセットでファインチューニングされたモデルに対して、 text-davinci-003 の勝率が 60 - 70\% となった。一方、構築した日本語の指示・応答データセットのモデルに対しての勝率は、たったの $24 \%$ であり、本データセットで訓練したモデルの出力の品質が良好であることが示された。
## 4.3 議論
本実験では、事前学習済みの同じモデルを異なる指示・応答データセットでファインチューニングし、それらの出力を GPT-4 で比較した。その結果、元は同じモデルでも、訓練した指示・応答データセットによって、出力の品質が大きく異なることが示された。指示・応答データセットの量は、事前学習のデータを比べて非常に少ないため、本データによりモデルの知識などが大きく増加するとは考えられにくい。そのため、指示・応答データセットによるファインチューニングは、事前学習で得た知識をどう引き出すかを決めており、事前学習済みの元のモデルのポテンシャルを発揮するために、その品質が非常に重要であると推察される。
## 5 制限
構築した日本語の指示・応答データセットおよびファインチューニングしたモデルは LLAMA 2 Community License [19] に準拠する。
## 6 おわりに
LLM による生成・翻訳によって日本語の指示・応答データセットの構築に取り組んだ。本データセットでファインチューニングされた SW-7B は、 オープンエンドな QA タスクにおいて、他指示・応答データセットで訓練されたモデルや OpenAI の text-davinci-003を比べて、より高品質な解答が可能であった。以上から、本手法による日本語の指示・応答データセットの構築の有効性が示された。
## References
[1] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, and Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models, 2023.
[2] Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi, and Hannaneh Hajishirzi. Self-instruct: Aligning language models with self-generated instructions. In Anna Rogers, Jordan BoydGraber, and Naoaki Okazaki, editors, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 13484-13508, Toronto, Canada, July 2023. Association for Computational Linguistics.
[3] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In $\mathrm{H}$. Larochelle, M. Ranzato, R. Hadsell, M.F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020.
[4] Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang, and Tatsunori B. Hashimoto. Stanford alpaca: An instruction-following llama model. https://github. com/tatsu-lab/stanford_alpaca, 2023.
[5] Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, and Guillaume Lample. Llama: Open and efficient foundation language models, 2023
[6] Chunting Zhou, Pengfei Liu, Puxin Xu, Srini Iyer, Jiao
Sun, Yuning Mao, Xuezhe Ma, Avia Efrat, Ping Yu, LILI YU, Susan Zhang, Gargi Ghosh, Mike Lewis, Luke Zettlemoyer, and Omer Levy. LIMA: Less is more for alignment. In Thirty-seventh Conference on Neural Information Processing Systems, 2023.
[7] Anonymous. Self-alignment with instruction backtranslation. In Submitted to The Twelfth International Conference on Learning Representations, 2023. under review.
[8] Andreas Köpf, Yannic Kilcher, Dimitri von Rütte, Sotiris Anagnostidis, Zhi Rui Tam, Keith Stevens, Abdullah Barhoum, Duc Minh Nguyen, Oliver Stanley, Richárd Nagyfi, Shahul ES, Sameer Suri, David Alexandrovich Glushkov, Arnav Varma Dantuluri, Andrew Maguire, Christoph Schuhmann, Huu Nguyen, and Alexander Julian Mattick. Openassistant conversations - democratizing large language model alignment. In Thirty-seventh Conference on Neural Information Processing Systems Datasets and Benchmarks Track, 2023.
[9] Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, and Luke Zettlemoyer. Qlora: Efficient finetuning of quantized llms. arXiv preprint arXiv:2305.14314, 2023.
[10] Mike Conover, Matt Hayes, Ankit Mathur, Jianwei Xie, Jun Wan, Sam Shah, Ali Ghodsi, Patrick Wendell, Matei Zaharia, and Reynold Xin. Free dolly: Introducing the world's first truly open instruction-tuned llm, 2023.
[11] MosaicML. Dolly-hhrlhf dataset. https://huggingface.co/datasets/mosaicml/dolly_hhrlhf, 2023.
[12] fujiki. japanese_alpaca_data. https://huggingface.co/datasets/fujiki/japanese_alpaca_data.
[13] kunishou. databricks-dolly-15k-ja. https://huggingface.co/datasets/kunishou/databricksdolly-15k-ja.
[14] fujiki. japanese_hh-rlhf-49k. https://huggingface.co/datasets/fujiki/japanese_hhrlhf-49k.
[15] TokyoTech-LLM. Swallow. https://tokyotechllm.github.io/swallow-llama, December 2023.
[16] Edward J Hu, Yelong Shen, Phillip Wallis, Zeyuan AllenZhu, Yuanzhi Li, Shean Wang, Lu Wang, and Weizhu Chen. LoRA: Low-rank adaptation of large language models. In International Conference on Learning Representations, 2022.
[17] Hirokazu Kiyomaru. ja-vicuna-qa-benchmark. https://github.com/ku-nlp/ja-vicuna-qa-benchmark, 2023.
[18] Wei-Lin Chiang, Zhuohan Li, Zi Lin, Ying Sheng, Zhanghao Wu, Hao Zhang, Lianmin Zheng, Siyuan Zhuang, Yonghao Zhuang, Joseph E. Gonzalez, Ion Stoica, and Eric P. Xing. Vicuna: An open-source chatbot impressing gpt-4 with $90 \% *$ chatgpt quality. https://lmsys.org/blog/2023-03-30-vicuna/, March 2023.
[19] Meta. Llama 2 community license agreement. https://ai.meta.com/llama/license/, July 2023.
## A 生成された指示・応答データの例
表 4 に指示生成 LLM(Llama-2-70B-chat)で生成されたデータ、および翻訳生成モデル(Llama-2-70B)で翻訳した例を示した。
Table 4 生成されたデータセットの例。翻訳前後を示した。
\#\#\# Human: Iḿ quite interested in artificial intelligence and want to learn more about how a transformer model works, could you explain it to me? \#\#\# Assistant: Sure! A transformer model is a type of neural network architecture that was introduced in the paper "Attention Is All You Need" by Google in 2017. Itś called a transformer because itś based on the idea of self-attention, which allows the model to focus on different parts of the input when processing it.
The transformer architecture is primarily used for tasks such as natural language processing (NLP) that involve sequential input, such as text. The model is composed of an encoder and a decoder. The encoder takes in the input sequence and produces a set of hidden states, which are then passed to the decoder to produce the output sequence.
One key component of the transformer model is the self-attention mechanism. Self-attention allows the model to weigh the importance of different parts of the input when processing it. The model does this by computing a set of attention weights, which are used to weigh the contribution of each input element to the output.
Another important component of the transformer model is the use of multi-head attention. Multi-head attention allows the model to attend to multiple parts of the input at once. improves the modelś ability to understand relationships between different parts of the input. In the original paper the transformer was compromised from an "encoder" component and a "decoder" component. The input of the encoder is the the embedding of a conditioning text, such as a question, or text meant to be translated to a different language. The decoder receives the output of the encoder and the tokens it generated so far. It then predicts the next token to generate.
Finally, the transformer model also uses positional encoding, which encodes the position of each element in the input sequence. This allows the model to understand the order of the input elements, which is important for tasks like language understanding. if you have more questions, feel free to ask!日本語
\#\#\# Human: 月に行くのにかかる時間は?\#\#\# Assistant:月に行くのにかかる時間は、使用する宇宙船の種類、任務の特定の軌道そしてその間に中間地点に停まることがあるかどうかによって異なります。例えば、NASA のアポロミッションズは、1960 年代後半から 1970 年代前半に月面に宇宙人を着陸させたが、これらのミッションは地球周回軌道上で数日間を過ごし、月面に到着する前に月面投入マネーバーを実行したため、月に行くのに約 77 時間かかりました。しかし、直接地球から月に向かう宇宙船があれば、中間停泊なしで月面に到着するのに約 50-60時間かかると考えられます。ただし、これはただの推定であり、実際に月に行くのにかかる時間は、多くの要因によって異なります。
\#\#\# Human: 私は人工知能について本当に興味があり、特に Transformer モデルの作動方法について学びたいです。 あなたが説明してくれますか?\#\#\# Assistant:もちろんです! Transformer モデルは、2017 年に Google が発表した論文「Attention Is All You Need」で紹介された人工神経回路アーキテクチャです。名前は、入力データの処理において、モデルが異なる部分に焦点を当てることができる 「自己注意」メカニズムに基づいています。
Transformer アーキテクチャは、自然言語処理 (NLP) など、入力データが順序づけられたタスクに主に使用されます。アーキテクチャはエンコーダーとデコーダーで構成されています。エンコーダーは入力シーケンスを受け取り、隠れた状態を生成します。これらの隠れた状態は、デコーダーに渡されて、出力シーケンスを生成するために使用されます。
Transformer モデルの重要なコンポーネントは、自己注意メカニズムです。自己注意メカニズムは、モデルが入力データの異なる部分に焦点を当てることができます。モデルは、入力データの異なる部分に対して注意重みを計算し、これらの重みを使用して、出力を生成するために各入力要素の貢献度を決定します。
また、Transformer モデルは多頭注意を使用しています。多頭注意は、モデルが同時に複数の入力要素に焦点を当てることができます。これにより、モデルは入力データの異なる部分の関係性をよりよく理解することができます。
最後に、Transformer モデルは位置エンコードも使用しています。位置エンコードは、入力シーケンスの各要素の位置を示すために使用されます。これにより、モデルは入力シーケンスの要素の順序を理解することができます。
もし゚あなたがもっと質問がありましたら、自由に質問してください!
\#\#\# Human: What is your current system time? \#\#\# Assistant: I am unable to check my system time since I do not have any access to that. \#\#\# Human: But you're a computer. \#\#\# Assistant: I am not a computer, I am a set of weights evaluated by a program. My only input is the text of this conversation, which does not include the system time.
\#\#\# Human: 現在のシステム時刻は何時間ですか?\#\#\# Assistant: 私はそのシステム時刻を確認することができません。私にはそれにアクセスする権限がありません。\#\#\# Human:でも、あなたはコンピュータです。\#\#\# Assistant:私はコンピュータではありません。私は、この会話のテキストのみを入力とするプログラムによって評価される重みのセットです。私の出力には、システム時刻が含まれません。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-4.pdf | # 同一の原文書に対する複数の翻訳文書間で対応する言語単位対 の自動抽出
本田友乃 ${ }^{1}$ 藤田篤 ${ }^{2}$
1 東京大学大学院教育学研究科 2 情報通信研究機構
tomono20@g.ecc.u-tokyo.ac.jp atsushi.fujita@nict.go.jp
## 概要
機械翻訳の研究や産業翻訳において、誤りのない翻訳間の品質における差異を分析的に記述することは重要である。同一の原文書に対する異なる翻訳間に観察される差異を言語表現に基づいて記述するための枠組みは、翻訳文書対の分割と分割された単位対の分類という 2 つの工程からなるスキームとして整理されている [1] ものの、差異を効率的に分析するためには、分割・分類の自動化が課題である。そこで我々は、同一の原文書に対する複数の翻訳文書間で対応する言語単位対の自動抽出に取り組んだ。入力
$<$ You are required to pay the required fee.,必要な手数料を納付しなければならない。所要の料金の支払いが求められます。>
入れ子のない単位に分割妥当な言語単位のみを抽出
出力
<the required fee, 必要な手数料, 所要の料金> <required, 必要な, 所要の>
$<$ fee, 手数料, 料金 $>$
<You are required to pay, 納付しなければならない, 支払いが求められます>
$<$., о, o>
図 1 自動抽出タスクにおける入出力の例
のの、 $\mathrm{MT}$ の性能の向上に鑑みると、今後は、誤り以外の観点から MT 訳を診断・評価することも必要である。したがって、HT、MT、MT+PE などの産出工程の異なる翻訳を対象として、既存の尺度では十分に捉えられていない翻訳間の差異を分析的に記述することは、MT 技術の発展の観点からも、産業翻訳における翻訳技術の導入の観点からも重要である。
こうした課題を背景に、原文書を同じくする独立に産出された異なる翻訳文書間の差異を分析的に記述するためのスキーム (以下、差異分析スキーム) が、開発 $[9,1]$ されてきた。差異分析スキームは一般に、(1) 所与の翻訳文書対を対応する言語単位対へと階層的に分割し、(2) 得られた個々の言語単位対の差異を分類する、という 2 つの工程からなる。 ただし、既存のスキームは分割・分類の作業を全て人手で行うことを想定して設計されているため、多数の翻訳文書対に適用して分析することは作業負担を考慮すると困難である。
そこで我々は、差異分析スキームにおける分割の工程を「同一の原文書に対する複数の翻訳文書間で対応する言語単位対の自動抽出」というタスクとして定式化し、その自動化に取り組んだ。
## 2 タスクの定義
差異分析スキーム [1] における分割の工程では、言語単位 (分析単位) 対の定義と分割手順に従い、分割元の単位対を入れ子のない要素に分割する ${ }^{1)} とい$ う制約のもと、所与の翻訳文書対から分析単位対へと階層的に分割することで、翻訳文書対に含まれる単位対を網羅的に抽出する。翻訳の原文書 (Source Document)を $\mathrm{SD}$ 、当該 $\mathrm{SD}$ に対する異なる翻訳文書 (Target Document) を各々 $\mathrm{TD}_{1} 、 \mathrm{TD}_{2}$ と記す。そして、同一の原文書に対する複数の翻訳文書間で対応する言語単位対の自動抽出を次のように定式化する。
入力: $\left.\langle\mathrm{SD}, \mathrm{TD}_{1}, \mathrm{TD}_{2}\right.\rangle$ の組
出力: 入力に内包されている階層的な言語単位の組の集合 $\left.\{\left(s, t_{1}, t_{2}\right) \mid s \sqsubset \mathrm{SD}, t_{1} \sqsubset \mathrm{TD}_{1}, t_{2} \sqsubset\right.$ $\left.\mathrm{TD}_{2}, s \equiv t_{1} \equiv t_{2}\right.\}$
ここで $x \sqsubset X$ は $x$ が文書 $X$ に内包される要素であること、記号三は当該文書において文書要素が対応していることを表す。段落よりも大きい単位など、対応していることが自明な要素の組 $\left.\langle s \sqsubset \mathrm{SD}, t_{1} \sqsubset \mathrm{TD}_{1}, t_{2} \sqsubset \mathrm{TD}_{2}\right.\rangle$ を力力としても良い。分析対象はあくまで翻訳文書間の差異であるため、入出力における SD 及び $s$ ᄃ SD は任意である。
## 3 使用するデータ
本研究では、産業翻訳で使用される翻訳文書を扱った MultiEnJa2) のデータセットから 2 文書を選択し、 1 件を手法の検討のための開発用データ、もう 1 件を提案手法の性能評価のための評価用データとして用いた。各データの基礎統計を表 1 に示す3)。正解データは、開発用・評価用ともに差異分析スキー ムの分析単位の定義と分割手順に従って作成した。評価用データについては、Honda ら [1] がスキームの検証のために行った複数人による分析の結果を参照して正解を定めた。
## 4 提案手法
人手での分割は、 $\left.\langle\mathrm{SD}, \mathrm{TD}_{1}, \mathrm{TD}_{2}\right.\rangle$ の 3 つ組を起点とするトップダウンな処理である。これに対して本
1)「入れ子のない要素」に分割する操作とは、分割元の分析単位の統語的な構造に従って、(A) 分割後の要素同士に重なりがないように分割する、(B) できるだけ大きな単位を抽出する、という 2 つの条件を満たす操作を表す。
2) https://github.com/tntc-project/MultiEnJa
3) SD の語数は NLTK [10] を、TD (MT+PE と HT) の語数 (形態素) は MeCab 及び IPA 辞書 [11]を用いて計測した。表 1 自動抽出に使用した文書の基礎統計
研究では、語の対応から大きい単位対をボトムアップに組み合わせるアプローチについて検討した。本研究での提案手法は、1) 単語対の取得、2) フレーズ対の取得、3) フレーズ対の組み合わせ、4) 後処理の 4 段階の手順からなる ${ }^{4)}$ 。
なお、入力となる翻訳文書対に対して、以下の前処理を行うこととした。
・文書間の文単位での対応づけ
・メールアドレスと URL の抽象化
・分かち書き5)
## 4.1 1) 単語対の取得
まず,次の 4 種類の方法で単語対を同定する6)。
(a) SD を介した TD 間の単語対 (WSPAlign [12] を使用)
(b) TD 間の単語対 (WSPAlign [12] を使用)
(c) TD 間の単語対 (OTAlign [13] の UOT を使用)
(d) TD 間の単語対 (OTAlign [13] の POT を使用)
(a) SD を介したTD 間の単語対 (WSPAlign を使用) まず、 $\left.\langle\mathrm{SD}, \mathrm{TD}_{1}\right.\rangle$ と $\left.\langle\mathrm{SD}, \mathrm{TD}_{2}\right.\rangle$ の各文書対から、WSPAlign を用いて SD-TD 間の単語対を得る。 $\mathrm{SD} \rightarrow \mathrm{TD} 、 \mathrm{TD} \rightarrow \mathrm{SD}$ の各方向について WSPAlign を適用して単語対を取得し、その結果を、Nagata ら [14] の bidi-avg のアルゴリズムを用いて対称化する。 そして、SD 中の同じ単語に対応づけられた $\mathrm{TD}_{1}$ 、 $\mathrm{TD}_{2}$ の単語を対応づけて、 $\mathrm{TD}$ 間の単語対を得る。
(b) TD 間の単語対 (WSPAlign を使用) SDを介さずに、 $\left.\langle\mathrm{TD}_{1}, \mathrm{TD}_{2}\right.\rangle$ に対して WSPAlign を直接適用し、
4) 原理的には、WSPAlign [12]を用いてフレーズ対を直接取得することも可能である。ただし、単語アラインメントのみに基づいて学習されたモデルはフレーズ対の抽出性能が低く、ファインチューニングに使用可能なデータも現時点では存在しないため、本稿では扱わない。また、提案手法の亜種として、単語アラインメントを組み合わせた上でフレーズ対を取得するという手順も考えられるが、開発用データに対する性能が低かったため、報告を割愛する。
5) SD に対しては NLTK [10] を、TDに対しては MeCab 及び IPA 辞書 [11]を使用して分かち書きを行った。ただし、分かち書きの後、正解データと照らし合わせて正解データと単位が異なる箇所は、人手による修正を施した。
6)単語アラインメントツールの設定は、付録 $\mathrm{A}$ を参照されたい。
$\mathrm{TD}$ 間の単語対を得る。WSPAlign の設定は (a)と同じとした。
(c)・(d) TD 間の単語対 (OTAlign の UOT、または POTを使用) (b) と同じく、SDを介さずに、 $\left.\langle\mathrm{TD}_{1}, \mathrm{TD}_{2}\right.\rangle$ の単語対を直接得る。差異分析スキームが「対応なし」の単位対も分析対象としていることをふまえ、(c)・(d)では、null alignment に対応可能な OTAlign $の$ UOT (unbalanced OT) と POT (partial OT) を単語アラインメントツールとして利用する。
## 4.2 2) フレーズ対の取得
1) で得た (a)〜 (d) それぞれの単語対の集合からフレーズ対の集合を取得する。具体的には、Moses [15] の Phrase extractor ${ }^{7)}$ を利用した。その際、節などの長い単位対を抽出することを考慮して、抽出対象となるフレーズの最大長を 30 とした。
## 4.3 3) フレーズ対の組み合わせ
2) で得た (a)〜 (d) それぞれのフレーズ対の抽出結果の和集合を取る。ただし、2)ではフレーズの表層文字列を考慮していないため、意味的に対応している可能性が高い表層上一致する単位対であっても同定できていない可能性がある。そこで、フレーズ対の集合に対して、TD 間で表層上一致する単位対 (表層アラインメント) も加える。表層アラインメントの取得には Meteor $[16]^{8)}$ を利用した。ただし、表層アラインメントのうち、ひらがな一文字同士の単語対は助詞が多く、正しい対応が取れている可能性が低いため、除外した。
## $4.44)$ 後処理
3) で得たフレーズ対の集合に対して、差異分析スキームの分析単位の定義と分割手順に合致する単位対のみを抽出するために、次の 2 つの後処理を行う。
## 句構造解析器を用いた絞り込み 2) のフレーズ対の取得では、階層性は保たれているものの、文法性は考慮されていないため、抽出結果には言語単位 として妥当ではない単位も多く含まれる。そこで、日本語の句構造解析器である Jigg [17] を利用して、言語学的な単位対のみを絞り込む処理を行う。ただ し、Jigg は、日本語の CCGBank [18] に基づく二分岐 の構造であり、かつ、最小単位が形態素であること
7) https://github.com/moses-smt/mosesdecoder/
8) https://www.cs.cmu.edu/ alavie/METEOR/index.html, version 1.5
から、句構造解析結果の枝葉の中には、主語と格助詞を 1 単位とする単位や、述語を構成する一部の形態素のみからなる単位など、独立した言語単位でない単位も存在する。そこで、Jigg の解析結果に加えて、形態素情報をもとに、人手で文法的なルールを追加して不適切な単位対を同定することとした。
分割元が表層的に一致する対の除外差異分析スキームの分割手順には、TD 間で表層上一致する単位対は分割を停止するという条件が含まれる。そこで、Jiggによる絞り込みの後、同様の後処理を行う。
## 5 評価
評価用データを用いて 4 節の手法の評価実験を行った。具体的には、3)のフレーズ対の組み合わせで得られる 15 通りの結果全てについて正解データとの再現率、適合率、 $\mathrm{F} 1$ 値を算出した。
## 5.1 評価結果
開発用データ及び評価用データに対する評価結果を表 2 に示す。両データともに、単語対の収集手法を組み合わせるほど再現率が向上することが確認できた。評価用データでは、再現率はすべてのフレー ズ抽出結果を用いる (a)・(b)・(c)・(d) の場合に最大の $59.4 \%$ 、適合率と F1 值が最大となるのは (b) 単体の場合で、各々 $69.5 \% 、 60.1 \%$ であった。
(a)・(b)・(c)・(d) の組み合わせについて 4) の後処理の前後の性能を比較したところ、再現率は 81.6\%から $59.4 \%$ に低下する一方、適合率は $3.5 \%$ から $51.5 \%$ に改善していた。後処理はフレーズ対の絞り込みの機能を果たしているものの、主に再現率の面で改善の余地があることが明らかになった。
## 5.2 エラー分析
再現率が最も高い (a)・(b)・(c)・(d) すべてのフレーズ対を組み合わせた場合の抽出結果を対象として、抽出もれと抽出誤りの双方の観点からエラー分析を行った。エラー分析では、差異分析スキームにおける分析単位の定義を参照しながら、抽出された単位対の種類を分類し、分析単位の対の種類ごとの再現率を算出した上で、個別の事例を分析した。詳細は付録 Bを参照されたい。
## 5.2.1 抽出もれ
抽出もれには、対の一方が「対応なし」となるような単位対、及び節、語句相当、句、複合表現とい
表 2 各フレーズ対の組み合わせと正解データとの再現率、適合率、 $\mathrm{F} 1$ 値 (\%): 太字は各列の最大値を指す。
う比較的大きな単位対が多かった。
対の一方が「対応なし」となる単位対に関しては、 1) の単語対の取得において WSPAlign、OTAlign ともに陽に「対応なし」の単語を同定できるものの、2) のフレーズ対を取得する段階で隣接する表現とひとまとまりになるという原理的な問題がある。また、正解データ中の「対応なし」に対応する単位は単語単位でないものも存在するため、提案手法では抽出できなかった。
節、語句相当、句、複合表現という比較的大きな単位対に関しては、4)の後処理を行わない場合でも抽出もれが多かった。これは、2)のフレーズ対を取得するという手法だけでは大きな単位を適切に抽出することが困難であることを示している。
また、 5.1 節で見たように、4) の後処理においても抽出もれが増える。この原因としては、句構造解析器では適切に同定できない単位、不適切だが大きな単位対が存在する場合にそれよりも小さな正解の単位対が除外されることが考えられる。
## 5.2.2 抽出誤り
抽出誤りは、(i) 単位・対ともに適切だが不要な対 92 件、(ii) 単位は適切だが対が適切でない 131 件、 (iii)一方または双方の単位が適切でない 20 件、の 3 種類に大別できた。このうち、(i) 及び (ii) の誤りには句の単位対が、(iii)の誤りには記号を含む単位対が多かった。
句の単位対に関しては、差異分析スキームにおける「入れ子のない要素に分割する」という操作と、句構造解析器による文構造の解析が一致しない場合が多いことが考えられる。
記号を含む単位対に関しては、分割元の単位対に句読点以外の記号が含まれる場合に、記号を先頭に置く単位など文法性を損なう単位を抽出する例が多かった。
## 6 おわりに
本稿では、異なる翻訳文書間の差異の記述の効率化に向けて、同一の原文書に対する複数の翻訳文書間で対応する言語単位対の自動抽出という新しい夕スクを提案した。そして、単語アラインメントを起点として単語対からフレーズ対を階層的に同定する手法を実装し、一定程度の性能を達成した。また、抽出結果のエラー分析を通じて、提案手法では、句などの比較的大きな単位対の抽出が難しいことを明らかにした。
本稿で提案した言語単位対の自動抽出タスクは、異なる翻訳文書間の差異の分析だけではなく、翻訳分析における文書対の前処理や多様な単位に対応する言い換え表現の同定といった、他の研究への応用も考えられる。今後は、これらへの応用可能性を視野に入れつつ、自動抽出精度の向上に取り組む。その際、本稿で述べた手法の改良のみでなく、WSPAlign [12] をフレーズ対を同定できるようにファインチューニングして用いること、階層的なフレーズアラインメント技術 [19] を利用することなどの有用性についても調査する予定である。
## 参考文献
[1] Tomono Honda, Atsushi Fujita, Mayuka Yamamoto, and Kyo Kageura. Designing a metalanguage of differences between translations: A case study for English-to-Japanese translation. In Proceedings of the 3rd Workshop on Human Evaluation of NLP Systems, pp. 23-34, 2023.
[2] ISO/TC37. ISO 18587:2017 translation services-Postediting of machine translation output-requirements, 2017.
[3] Spence Green, Jeffrey Heer, and Christopher D. Manning. The efficacy of human post-editing for language translation. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, pp. 439-448, 2013.
[4] Maarit Koponen. Is machine translation post-editing worth the effort? A survey of research into post-editing and effort. The Journal of Specialised Translation, Vol. 25, pp. 131-148, 2016.
[5] Geoffrey S. Koby, Paul Fields, Daryl Hague, Arle Lommel, and Alan Melby. Defining translation quality. Revista Tradumàtica, Vol. 12, pp. 413-420, 2014.
[6] Arle Lommel, Hans Uszkoreit, and Aljoscha Burchardt. Multidimensional Quality Metrics (MQM): A framework for declaring and describing translation quality metrics. Revista Tradumàtica, Vol. 12, pp. 455-463, 2014.
[7] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 1460-1474, 2021.
[8] Atsushi Fujita. Attainable text-to-text machine translation vs. translation: Issues beyond linguistic processing. In Proceedings of Machine Translation Summit XVIII: Research Track, pp. 215-230, 2021.
[9] 本田友乃, 山本真佑花, 影浦峡. 異なる翻訳間の差異を記述するためのスキームの構築. 通訳翻訳研究への招待, Vol. 24, pp. 1-21, 2022.
[10] Steven Bird, Ewan Klein, and Edward Loper. Natural language processing with Python. O'Reilly Media, 2009.
[11] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004.
[12] Qiyu Wu, Masaaki Nagata, and Yoshimasa Tsuruoka. WSPAlign: Word alignment pre-training via large-scale weakly supervised span prediction. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 11084-11099, 2023.
[13] Yuki Arase, Han Bao, and Sho Yokoi. Unbalanced optimal transport for unbalanced word alignment. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 3966-3986, 2023.
[14] Masaaki Nagata, Katsuki Chousa, and Masaaki Nishino. A supervised word alignment method based on crosslanguage span prediction using multilingual BERT. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing, pp. 555565, 2020.
[15] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, 2007.
[16] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In Proceedings of the Ninth Workshop on Statistical Machine Translation, pp. 376-380, 2014.
[17] Hiroshi Noji and Yusuke Miyao. Jigg: A framework for an easy natural language processing pipeline. In Proceedings of ACL-2016 System Demonstrations, pp. 103-108, 2016.
[18] Sumire Uematsu, Takuya Matsuzaki, Hiroki Hanaoka, Yusuke Miyao, and Hideki Mima. Integrating multiple dependency corpora for inducing wide-coverage Japanese CCG resources. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1042-1051, 2013.
[19] Yuki Arase and Jun'ichi Tsujii. Compositional phrase alignment and beyond. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1611-1623, 2020.
[20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019.
[21] Graham Neubig. The Kyoto free translation task. http://www.phontron.com/kftt, 2011.
[22] Matt Kusner, Yu Sun, Nicholas Kolkin, and Kilian Weinberger. From word embeddings to document distances. In Proceedings of the 32nd International Conference on Machine Learning, Vol. 37, pp. 957-966, 2015.
[23] Richard Sinkhorn. A Relationship Between Arbitrary Positive Matrices and Doubly Stochastic Matrices. The Annals of Mathematical Statistics, Vol. 35, No. 2, pp. 876879, 1964
## A 単語アラインメントツールの設定
WSPAlign を利用した (a)、(b) の単語アラインメントの取得では、mBERT (bert-base-multilingual-cased) [20] で訓練された事前学習済みモデルを京都フリー翻訳タスク (KFTT) のアラインメントデータ [21] でファインチューニングしたモデルを使用した。アラインメントの対称化における間值は、Nagata ら [14] にならい 0.4 とした。
OTAlign を利用した (c)、(d) の単語アラインメントの取得では、BERT-base-uncased [20]によって学習された単語埋め込みを利用した教師なし学習のモデルを利用し、コスト関数としてコサイン距離 (cosine)を、重みとして単語埋め込みの一様分布 (uniform) [22]を指定し、Sinkhorn アルゴリズム [23]を適用した。
## B 分析単位対の種類ごとの再現率
(a)・(b)・(c)・(d) のフレーズ対の抽出結果を組み合わせた自動分割の結果に対して、差異分析スキーム [1] における分析単位の定義を参照しながら、抽出された単位対の種類を分類し、分析単位の対の種類ごとの再現率を算出した。表 3 に分析単位対の種類ごとの再現率を示す。
表 3 分析単位対の種類ごとの再現率
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-5.pdf | # プロンプトの丁寧さと大規模言語モデルの性能の関係検証
尹子旗 1 王昊 ${ }^{1}$ 堀尾 海斗 ${ }^{1}$ 河原 大輔 1,2 関根 聡 ${ }^{2}$
1 早稲田大学 2 理化学研究所 AIP
\{yinziqi2001@toki. , conan1024hao@akane . , kakakakakakai to@akane . dkw@\}waseda.jp
satoshi.sekine@riken.jp
## 概要
人間は社会的インタラクションにおいて、敬意やその表現である丁寧さに敏感である。例えば、丁寧な要求は、より高い協力意欲と目的の達成を促す傾向がある。一方で、無礼な言葉遣いは反感や敵意を引き起こし、それに対する応答や対応の質を低下させる可能性がある。本研究では、プロンプトの丁寧さが大規模言語モデルの性能に及ぼす影響を調査する。英語、中国語、日本語における言語理解ベンチマークで評価を行う。評価結果から、無礼なプロンプトを使用すると性能が低下する可能性が高い一方で、極端に礼儀正しく遠慮深い言葉遣いが必ずしもより良い結果をもたらすわけではないことがわかった。これらの結果は、大規模言語モデルが人間の行動をある程度反映していることを示唆している。
## 1 はじめに
大規模言語モデル (LLM) は、推論、質問応答など多くのタスクで顕著な性能を示し、実応用において重要な役割を果たしている。LLMへの入力はプロンプトと呼ばれ、LLM が情報を処理し、適切な応答を生成するための重要な起点である。
LLM の振る舞いや生成結果は様々な要因によって大幅に変わり、性能に大きな影響を与える。本研究は、プロンプトの表現の丁寧さという、LLM の性能に影響を与えうる要因の一つを調査する。人間の社会的インタラクションにおいて、敬意やその表現である丁寧さは基本的なエチケットであり、我々の言語に反映されている。しかし、丁寧さは文化や言語によって表現が異なる場合がある。例えば英語、中国語、日本語における丁寧さの表現や程度は大きく異なる。そのため、同じ丁寧さレベルでも、LLM の性能は言語によって異なる可能性がある。
本研究は、無礼なプロンプトが LLM の性能を低下させる可能性があるという仮説を立てる。性能の低下には、生成結果が十分に正確でない場合や情報の省略などが含まれる。また、性能における最適な丁寧さレベルは言語によって異なり、その文化的背景と強く関連しているという仮説も立てる。これらの仮説を検証するために、英語、中国語、日本語において、丁寧さが高いものから低いものまで 8 つのプロンプトを設計し、マルチタスク言語理解ベンチマークにおいて評価する。
本研究の主な貢献は次の 2 点である。
LLM は人間の承認欲求を反映している: LLM はある程度人間の承認欲求、つまり尊敬されたいという欲求を反映しているが、極端な敬意が必ずしも優れているわけではないことが分かった。この発見は、 LLM の振る舞いと人間の社会的エチケット [1] の深い関係を明らかにした。
日本語マルチタスク言語理解ベンチマークの構築:日本語における評価のために、英語のマルチタスク言語理解ベンチマーク MMLU [2] を翻訳するとともに、日本の文化に関するタスクを追加することによって、日本語 MMLU (JMMLU) を構築した。これは、日本語におけるLLM の新たなベンチマークになりうる。
## 2 関連研究
## 2.1 丁寧さ
人間はコミュニケーションにおいて敬意の度合いや言葉の丁寧さに敏感である [2]。敬意は、他者への尊重であり、この敬意は言葉遣いを通じて表現される [3]。丁寧さは、相手の面子への配慮と敬意の表現である [4]。例えば、丁寧な要請に人々は協力する可能性が高い。一方で、無礼な言葉は嫌悪感の原因となる。
敬意は様々な言語で異なる形で表現される [5]。英語では、相手の面子を配慮するほか、権利を認めつつも譲歩を期待することや、礼儀正しい言葉遣い
も敬意の表現方法である [6]。一方、命令、侮辱的な表現や他人の権利の無視は無礼な表現である。
日本語には敬語という礼儀用語があり $[7,8]$ 、尊敬語、謙譲語および丁寧語がある。日本語における礼儀の基本構造は英語と似ている [7] が、その使用に敬意の表現レべルの解釈に関して顕著な違いがある $[9,10]$ 。中国語の尊敬表現は英語に似ているが、日本語に似た表現もある [11]。しかし、社会変化によってこれらの表現の使用が減少している $[12,13]$ 。
## 2.2 LLM とプロンプトエンジニアリング
近年、LLM の規模はますます大きくなり、その高度なパターン認識能力が向上している。これらは多くのベンチマークにおいて人間に近い性能を示している。また、Cao [14] らの研究により、LLM は人間の文化とある程度整合し、人間のコミュニケーションの特性を反映していることを示唆されている。しかし、LLM はプロンプトに対する敏感性や脆弱性などいくつかの問題を抱えている。特にプロンプトのわずかな変更が生成結果に大きな違いをもたらし、 その性能を変化させることが知られている [15]。
そこで、プロンプトを調整することによってより良い生成結果を得るためのプロンプトエンジニアリングが登場した [16]。実際は各状況に応じたプロンプトを設計し、多くの実験を通じて検証する必要がある。自動プロンプト生成技術 [17] は存在するが、 API 経由で提供される LLMでは、通常、勾配へのアクセスが制限されているため、このような手法の適用には制約がある。このため、現状ではプロンプトエンジニアリングは主に人手で行われている。
## 2.3 LLM の評価
LLM のベンチマークには、言語理解能力を測る GLUE [18] やその日本語版の JGLUE [19] ど゙多くのものが存在している。しかし、LLM の性能が向上すると、単純なべンチマークでは LLM の能力を適切に測定できないことが多い。最近の LLM の評価においては、マルチタスク言語理解ベンチマーク MMLU [2] のように人間の応用シナリオとの合致度が高い試験から抽出されたものの採用が増えている。MMLUは、法律、医学、物理学など幅広い領域にまたがる 57 個のタスク、計 17,844 問の 4 択問題で構成されている。しかし、日本語においてこのようなベンチマークは存在せず、日本語における LLM 評価の課題となっている。
## 3 JMMLU の構築
日本語における LLM 評価ベンチマークを拡充し、本研究における評価で用いるために、日本語マルチタスク言語理解ベンチマーク (JMMLU) を構築する。英語の MMLUを翻訳するとともに、日本の文化に関するタスクを追加する。
MMLU の 57 タスクのそれぞれから最大 150 問を選択し、まず日本語に機械翻訳する。次に、翻訳者が機械翻訳結果を確認することによって、翻訳しにくい、もしくは、日本の文化と無関係または矛盾する問題やタスクを削除した。残りの問題については自然な日本語になるように修正した。一方、追加したタスクは、欧米視点の MMLU にない公民、日本史などの学校教科に基づく問題 $[20,21]$ である。
最終的に JMMLU は56 タスクからなる。なお、ここにおけるタスクは科目と同義である。タスクの一覧を付録 A に示す。各タスクの問題数は 95 問から 150 問の範囲となり、合計 7,567 問となった。
## 4 実験設定
本研究では、プロンプトの丁寧さの違いに応じて、マルチタスク言語理解ベンチマークにおける LLM の性能を評価する。
言語言語によって文化が異なり、また丁寧さと敬意の理解や定義も異なるため、英語、中国語、日本語の 3 言語について評価する。
LLM 各言語の LLM については、多言語対応の GPT-3.5-Turbo (以下 GPT-3.5) と GPT-4 に加え、各言語に特化したモデルとして、英語では Llama-270b-chat ${ }^{1 \text { ) ( }}$ (下 Llama2-70B)、中国語では ChatGLM36B [22,23]、日本語では Swallow-70b-instruct-hf ${ }^{2}$ (以下 Swallow-70B)を用いる。
プロンプトの設計各言語において、丁寧さが異なる 8 種類のプロンプトをそれぞれの言語の母語話者もしくは同レベルの言語能力を持つ者によって設計した。さらに、各言語の母語話者対象のアンケー 卜調査を実施し、丁寧さを評価しランク付けした。日本語の 8 種類のプロンプトを表 1 に示す。レベル 8 が最も丁寧であり、レベル 1 が最も無礼である。
ベンチマークと評価方法評価対象のベンチマー クとして、英語評価には MMLU、中国語評価には C-Eval [24]、日本語評価には JMMLU を使用する。
各実験では、GPT-3.5 と GPT-4 の API 利用におけるコスト削減のため、それぞれのタスク (科目) から最大 100 件のテストデータを選択した。各言語で評価に用いる問題数は、MMLU は 5,700 件、C-Eval は 5,200 件、JMMLU は 5,591 件である。C-Eval のテストデータは正解が非公開のため、採点は C-Eval ベンチマークツールを使用する。このツールによる採点において、テストセットの一部分のみを用いているため、満点は 100 点ではない。
評価方法は HELM [25] の実装を参考にした。 HELM は生成文の一番目のトークンのみを使用して評価するため、LLM が最初に正解の選択肢番号を答えなければ不正解になる。本研究では HELM と異なり、生成文のどこかに正解の選択肢番号が含まれる場合に正解とみなす。モデルが回答を拒否するなどの場合は不正解として扱う。
## 5 結果と考察
各言語及び丁寧さレベルにおける平均点を表 2 に示す。さらに、丁寧さレベルの比較のために、丁寧さレベルの全ペアについて $\mathrm{t}$ 検定を実施した。 $\mathrm{t}$ 検定の $\mathrm{p}$ 値は以下の基準で図 1 に示す。
・タイル色:緑のタイルは、 $\mathrm{y}$ 軸のプロンプトの丁寧さレベルが $\mathrm{x}$ 軸のものより統計的に有意に良く、赤のタイルはその逆を示す。
- 色の強度: $\log (\mathrm{p})$ の大きさに対応しており、統計的有意性を示している。色がついたものは棄却水準の 0.05 を超えている。
## 5.1 英語
表 2 によると、GPT-3.5 は丁寧さレベル 8 で最も高い 60.02 に達した。図 1 の上段において、レベル
図 13 言語のベンチマークの $\mathrm{t}$ 検定結果
8 はレベル 3 以外のレベルより有意に優れていることを示している。丁寧さのレベルが下がるにつれてスコアは徐々に下がるが、その差は有意ではない。 レベル 3 でも、 59.44 で良好な水準を維持し、レべル 8 以外のレベルより優れている。丁寧さが最も低いレベル 1 の場合は 51.93 まで低下し、他のレベルよりも有意に低い。
GPT-4 のスコアは変動するが、比較的安定している。レベル 4 において最も高く、レベル 3 において最も低い。レベル 1 のスコアの值はそれ程低くはないが、ヒートマップから、より丁寧なプロンプトより有意に低いことがわかる。図 1 には全体的に濃いタイルがなく、性能の安定性を示している。高度なモデルにおいて、プロンプトの丁寧さはモデルの性能に影響を与えにくい可能性がある。
Llama2-70B は最も顕著な変動を示し、そのスコア
表 23 言語のベンチマークにおけるスコア
は丁寧さレベルにほぼ比例している。高い丁寧さレベルのプロンプトが通常、低いレベルのものより優れていることがわかり、プロンプトに対する高い感度を示している。
## 5.2 中国語
中国語では、英語と同様に、丁寧なプロンプトを好む傾向を示したが、いくつかの差異があった。 GPT-3.5 は丁寧さレベル 1 では最低の 19.57 で、他のプロンプトに対して有意に劣ることが分かる。さらに、低い丁寧さのレベル 3, 2 はレベル 7、6、5、4 と比べて有意に劣っている。しかし、レベル 8 もスコアが低く、20.85であり、レベル 1 以外のレベルに対して有意に劣る。
GPT-4 は英語と同様に安定しており、有意な差異が少なく、丁寧さレベル 8 と 7 の性能低下を除いてはほとんど変化がない。GPT-3.5, 4 の二つのモデルが非常に丁寧なプロンプトにおいてスコアが下がる原因として、中国語の多肢選択肢式の質問を設計する際に丁寧なプロンプトを使用しないためモデルが適切に扱えないことが考えられる。
ChatGLM3 は丁寧さレベル 8 からレベル 2 まではスコアが減少傾向にあり、この傾向は有意であった。ChatGLM3 の主な事前学習言語は中国語であるため、中国語の丁寧さレベルに対してより敏感であると考えられる。このような傾向はLlama2-70Bに似ている。しかし、最も無礼な丁寧さレベル 1 では改善し、レベル 3 と 2 を上回った。この原因は中国語の固有のニュアンスに関わると考えられる。
## 5.3 日本語
日本語では、いずれのモデルも丁寧さレベル 1 で有意な性能低下を示したが、英語、中国語における傾向とは著しく異なる。レベル 1 を除き、低いレベルがより良いスコアを得る傾向にあった。
GPT-3.5 において、レベル 5 と 2 が特に高いパフォーマンスを示しており、レベル 2 が最高スコアを記録している。GPT-4 においては、レベル 6 と 5 が優れており、レベル 4 が最も高いスコアを達成している。これらのモデルでは、極端に無礼なプロンプト(レベル 1)を除けば、おおむね良好なスコアが得られる傾向が見られる。
Swallow-70B は、レベル 6 と 3 で他のすべてのレベルを上回る性能を示した。これらのレベルは、プロンプトが日本語の質問や試験で一般的に使用される表現であるため、より良い性能を発揮できたと推測される。
## 6 おわりに
本研究は日本語マルチタスク言語理解ベンチマー ク (JMMLU) を構築し、英語、中国語、日本語においてプロンプトの丁寧さが LLM の性能に与える影響を検証した。検証結果から大きな影響を与えることが分かり、これは LLM が人間の行動をある程度反映していることを示唆している。極端に失礼なプロンプトを使用すると、LLM の性能が低下し、不正確な回答または回答の拒否につながる可能性がある。しかし、過度に丁寧なプロンプトが常に良い結果につながるわけではない。ほとんどの状況では、適度に丁寧であることが望ましいが、適度さの基準は言語や文化によって異なる。特に、特定の言語で訓練されたモデルは、その言語の丁寧さにより敏感である。これから、LLM 開発とコーパス収集の際には文化的背景を考慮すべきであると考えられる。
## 謝辞
MMLU の翻訳にあたり、理化学研究所から支援を受けた。日本史・世界史の資料を株式会社 Step から、熟語・公民・日本地理の資料を V-IST 学習塾から提供を受けた。これらの組織に感謝する。
## 参考文献
[1] Liisa Vilkki. Politeness, face and facework: Current issues. A man of measure, 2006.
[2] Dan Hendrycks, et al. Measuring massive multitask language understanding. 2021.
[3] Stephen L Darwall. Two kinds of respect. Ethics, Vol. 88, No. 1, pp. 36-49, 1977
[4] Penelope Brown and Stephen C Levinson. Politeness: Some universals in language usage, Vol. 4. Cambridge university press, 1987.
[5] Sara Mills and Dániel Z Kádár. Politeness and culture. Politeness in East Asia, pp. 21-44, 2011.
[6] Kenji Kitao. Differences between politeness strategies used in requests by americans and japanese, March 1987.
[7] 文化審議会. 敬語の指針. 平成 19 年, Vol. 2, , 2007.
[8] 宮地裕. 現代の敬語. 講座国語史第 5 巻敬語史」大修館書店, 1971.
[9] Kenji Kitao. A study of japanese and american perceptions of politeness in requests., March 1990.
[10] 真人滝浦. 日本語敬語および関連現象の社会語用論的研究 [全文の要約]. theses (doctoral - abstract of entire text), 北海道大学, March 2017.
[11] 周筱娟. 现代汉语礼貌语言研究, May 2008.
[12] Yueguo Gu. Politeness phenomena in modern chinese. Journal of Pragmatics, Vol. 14, No. 2, pp. 237-257, 1990. Special Issue on 1squo;Politenessrsquo;.
[13] 荀春生. 汉语的敬语及其文化心理背景. 九州大学言語文化部言語文化論究, Vol. 10, pp. 1-9, 031999.
[14] Yong Cao, et al. Assessing cross-cultural alignment between ChatGPT and human societies: An empirical study. In Sunipa Dev, Vinodkumar Prabhakaran, David Adelani, Dirk Hovy, and Luciana Benotti, editors, Proceedings of the First Workshop on Cross-Cultural Considerations in NLP (C3NLP), pp. 53-67, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics.
[15] Jean Kaddour, et al. Challenges and applications of large language models, 2023.
[16] Jules White, et al. A prompt pattern catalog to enhance prompt engineering with chatgpt, 2023.
[17] Taylor Shin, et al. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4222-4235, Online, November 2020. Asso-ciation for Computational Linguistics.
[18] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language un- derstanding. In Tal Linzen, Grzegorz Chrupa la, and Afra Alishahi, editors, Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics.
[19] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[20] 学習塾ステップ. 神奈川県の塾・学習塾・進学塾・個別指導. https://www. stepnet.co.jp, 2023. Accessed: 2024-1-5.
[21]進学塾ヴィスト|船橋・宮本・湊・若松の学習塾 https://www.v-ist.com, 2023. Accessed: 2024-1-5.
[22] Zhengxiao Du, Yujie Qian, Xiao Liu, Ming Ding, Jiezhong Qiu, Zhilin Yang, and Jie Tang. Glm: General language model pretraining with autoregressive blank infilling. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 320-335, 2022.
[23] Aohan Zeng, Xiao Liu, Zhengxiao Du, Zihan Wang, Hanyu Lai, Ming Ding, Zhuoyi Yang, Yifan Xu, Wendi Zheng, Xiao Xia, et al. Glm-130b: An open bilingual pre-trained model. arXiv preprint arXiv:2210.02414, 2022.
[24] Yuzhen Huang, Yuzhuo Bai, et al. C-eval: A multi-level multi-discipline chinese evaluation suite for foundation models. In Advances in Neural Information Processing Systems, 2023.
[25] Percy Liang, Rishi Bommasani, et al. Holistic evaluation of language models, 2023.
## A JMMLUのタスク
## B英語と中国語のプロンプト
表 3 英語プロンプト
\\
表 4 中国語プロンプト
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A7-6.pdf | # AmbiNLG: 自然言語生成のための指示テキストの曖昧性解消
丹羽彩奈 磯颯
Megagon Labs
\{ayana, hayate\}@megagon . ai
## 概要
大規模言語モデル (Large Language Models; LLMs) の台頭により、自然言語を用いた指示で多岐にわたる言語処理タスクが実行可能になった。しかし、与えられた指示が曖昧性であるためにユーザーの意図と異なるテキストが生成されることがある。特に自然言語生成(Natural Language Generation; NLG)に見られる曖昧性は広範で、人間が曖昧でない指示を書くことは難しい。そこで本研究では、曖昧性解消べンチマークデータセット AmbiNLG の導入および自動的かつ網羅的な曖昧性解消を行う。実験より、提案手法による複数の曖昧性の明示的・網羅的な曖昧性解消の有効性を示した。
## 1 はじめに
LLMs [1, 2], 特に ChatGPT ${ }^{11}$ に代表されるような対話型 LLMs は、自然言語による指示を介して操作できるため、非専門家も扱える。しかし指示テキスト次第で LLMs の出力は大きく変動するため [3]所望のテキストを生成させるには適切な指示を探索するプロンプトエンジニアリングが必須である [4]。特に自然言語は曖昧性という本質的な問題を抱えており [5, 6, 7]、ユーザーの指示が不明瞭である場合出力結果を一意に定めることができず、結果に悪影響をもたらしえる。一方で、明瞭な指示文作成のためのプロンプトエンジニアリングは容易ではないため、自動で曖昧性を解消する手法が求められる。曖昧性を解消する先行研究では、機械翻訳における多義語 [6] や質問応答における情報不足 [8] といった特定のタスク・曖昧性のみを対象としている。しかし、先行研究のような限定的な設定における曖昧性解消では十分ではないと考えられる。まず、LLM は実社会での多様な NLG タスクで利用されているため、幅広いNLG タスクに対して解消すべき曖昧性カテゴリを洗い出し、それらを網羅的に解消する
図 1 本研究が提案する曖昧性解消方針。指示テキストに曖昧性を解消するための補完テキストを追加する。
必要がある。加えて、NLG タスクの指示には曖昧になりえる要素が散在するという点も問題である。例えば「Summarize this article.」という指示だけでは、要約の長さ、焦点を当てるべき記事の内容、段落構成などの情報が与えられておらず、ユーザーが真にどのような出力を求めているかはわからない。
これらの問題に対し、本研究では (1) 様々な NLG タスクに対する指示テキストの曖昧性問題の体系化、(2) 様々な曖昧性の網羅的解消を行う。まず既存の Super-natural instruction [9] データセットにおける曖昧性を人手で 6 つのカテゴリに体系化する。次に、データセット内の指示テキストに曖昧性カテゴリとその曖昧性を補完するための情報(補完テキスト)を自動付与することで曖昧性解消データセット AmbiNLG を構築する。そして、元の指示テキストに補完テキストを連結することで曖昧性が解消された明瞭な指示テキストを作成する(図 1)。
実験の結果、曖昧性を解消した指示によってタスク性能が最大で 9.12 ポイント向上した。さらに、特定の曖昧性のみ解消した指示と網羅的に曖昧性を解消した指示を与えた場合を比較すると、後者の方がタスク性能がさらに $8.69 \%$ 以上、さらに曖昧性を解消しない元の指示と比較して $17.21 \%$ 改善した。こ
れらのことから、NLG タスクの指示の曖昧性はタスクの性能を左右するため、網羅的に曖昧性を掘り下げ分類し解消する必要があることがわかる。昧性を解消することは各タスクの性能向上の面で有効であること、また人手評価により実際に解消された曖昧性の観点で出力結果が改善していることを確認した。
## 2 AmbiNLG データセット
## 2.1 指示テキストにおける曖昧性の体系化
まず、過去の NLG 研究の文献を参考に、NLG において、指示が曖昧となり得る要素を体系的に整理した $[10,11,12,13,14,15]$ 。さらに、元の指示において特定のカテゴリに関する指定が曖昧であった場合、それを補完する追加指示を行うためのテンプレートを開発した。以下に構築した曖昧性カテゴリとそれを解消するための指示テンプレートを示す。
CONTEXT 背景情報や外部知識等の文脈情報が与えられていない (Additional information:
THEME 焦点を当てて欲しいトピックが明確に与えられていない (Primarily discuss the following theme:
PlAnning もたせるべき大域的な構造が明確に与えられていない (Please generate the output following the outline provided below: Outline: 1 . 2. --- ..)
LENGTH 長さ情報(単語数や文数)が与えられていない (Answer with words.)
STYLE もたせるべき文体やトーンが与えられていない (Write in a _-.--.- style.)
KEYWORD 含めるべき単語やフレーズが与えられていない (Include in your response.)
なお、具体例は Appendix の表 4 に示した。
## 2.2AmbiNLG データセットの構築
先に定義した曖昧性カテゴリを基に、指示テキストの曖昧性とそれによる生成テキストへの影響を評価できるデータセット、AmbiNLGを構築した。具体的には、既存の指示付き NLG ベンチマークの各インスタンスに対して、各曖昧性カテゴリに対応する追加指示テンプレートを用いて、曖昧性を解消するための穴埋め作業を行い、その追加指示をした際の生成テキストを評価を可能とする。本研究では、指示付きNLG ベンチマークとして、Super-Natural Instructions (SNI) [9] の NLG データから 500 事例を選択し、質問生成や要約、事実文生成、物語生成など 29 タスク・196 種類のデータに対しアノテーションを行った。
## 2.3 アノテーション方法
AmbiNLG のアノテーションには、元の指示テキストと、入出力テキストを慎重に比較し、不足した情報を同定し、それをもとに穴埋めを行う必要があり、非常にコストがかかる。本研究では、 LLM-in-the-loop により効率的かつ高品質なデータ作成を試みた $[16,17,18]$ 。以下に具体的な手順を示す。
手順 1. 学習データの作成 GPT-3.5 の fine-tuning のための高品質な学習データを GPT-4 と人手作業で作成する。まず、各曖昧性カテゴリにつき事例を 100 件ずっランダムにサンプリングする。次に GPT-4 に入力テキストと出力テキスト、そして穴埋め前のテンプレートを与え、正しく出力テキストを生成するために必要な補完情報を穴埋めさせることで、曖昧性補完テキストを生成する。最後に、人手で生成結果の確認を行い、品質の高い事例のみを fine-tuning のための学習データとして選定した。なお、選定基準は Appendix A に示した。
手順 2. GPT-3.5 によるデータ拡張入力文、指示テキスト、曖昧性カテゴリとテンプレートをモデルに入力し、その指示テキストの曖昧性を与えられた曖昧性カテゴリの観点で補完するようにテンプレー トを穴埋めさせる。ここでは、GPT-3.5を曖昧性カテゴリごとに別途 fine-tuning し、学習済みのモデルを全事例に対し適用した。
なお、補完テキストが出力テキストの直接的なリークにならないよう、テンプレートの穴埋め時には出力テキストを明示的に含めないことを指示に含めている。また、補完テキストと出力テキストとの単語の重複度合いを ROUGE ( $\mathrm{F}$ 値) で評価したところ、入力テキストと出力テキストのスコアと比較して同程度、あるいは大幅に減少したことから、今回の補完テキストはリークには当たらないと考えている。詳細は Appendix B に示した。
LLMs なしにデータ作成する曖昧性カテゴリ出力テキストから直接抽出できる LENGTH と KEYWORD の補完テキストは、以下のように作成した。
LENGTH NLTK [19]を用いて、複文であれば文数、
単文であれば単語数を抽出した。
KEYwORD Yake [20]を用いてキーワードの抽出し、重要度の高い Top-n のキーワードを採用した ${ }^{2)}$ 。
## 3 曖昧性分析
## 3.1 曖昧性解消データセットの分析方法
AmbiNLG データセットの補完テキストを元の指示に追加することで曖昧性を解消し、その挙動を性能と曖昧性の観点から分析する。
曖昧性解消の評価曖昧性が完全に解消されているか否かを判別することは難しい。そこで、補完テキストを指示文に追加したときに、追加前と比較してよら曖昧性が補完されるか、つまり相対的な曖昧レベルの変動に着目することで曖昧性を評価する。具体的には、まず指示テキストを GPT-4 に与え、補完テキストを後から追加したときに追加前と比べて曖昧レベルが「増加」したか「減少」したか 「不変」であるかの三值分類を行った。曖昧レベルの減少は、補完テキストが指示テキストの曖昧性補完に寄与したことを意味する。
本分析では、提案する補完テキストに加え、比較対象として別の事例・同じカテゴリの補完テキスト (RANDOM)と指示テキストから補完テキストと可能な限り単語数の近い文を抽出したもの $\left(\right.$ OvERLAP $\left.{ }^{3}\right)$ の 2 種類も用いる4)。
タスク性能に対する曖昧性解消の効果補完テキストを元の指示テキストに加えることで実際のタスクを解かせた際の性能が向上するかを調べる。これは、補完テキストの内容がタスクを解くうえで有用であることを示す。指標には、本研究が対象とする多様な NLG タスクに対応するため、SNI [9] と同様に正解文との単語の重複度合いに基づくROUGE-L F1 スコア [21]を採用する。
## 3.2 曖昧性分析結果
曖昧性は性能に影響を与えるか本分析では、曖昧性補完テキスト、RANDOM、OVERLAP のテキスト
2)キーワード数 $n$ は、合計単語数が出力単語数の $40 \%$ 以下を満たす最大数、あるいは最大で 4 とした。
3)指示テキストが短い場合は、TEmpLATE の長さに近くなるように指示テキストを複数回繰り返す
4)この曖昧性評価の性能は、RANDOM やOVERLAP に対して全カテゴリ平均で正答率 $94 \% を$ 超えることを確認している(詳細は Appendix B に記載した)。つまり、GPT-4 は情報量や系列長が增えることと曖昧性が解消されることを高精度で区別できている。
表 1 曖昧レベルと性能の関係。性能は追加指示テキストを与えない場合との ROUGE スコアの差分
それぞれを指示テキストに連結してタスクを解かせた時の性能を、判定された曖昧レベルごとに集計した結果を表 1 に示した。なお、数値は追加テキストなしの性能との差分の平均値である。わかりやすさのため、曖昧レベルが増加したものを「曖昧である」、減少したものを「明瞭である」と表記する。
これによると、ほぼ全ての曖昧性カテゴリで、「明瞭である」と判定されたテキストを追加することで、最大で 9.12 ポイント性能が向上する。逆に「曖昧である」と判定された追加テキストを使うとすべての曖昧性カテゴリにおいて性能は大きく低下し、最大で 16.1 ポイント悪化する。このように、指示テキストの曖昧性は確かに性能を悪影響を及ぼすこと、つまりその曖昧性を補完することが性能向上に有効であることがわかる。性能への影響の大きさは曖昧性カテゴリごとに異なり、曖昧性を解消することでほぼすべての曖昧性カテゴリで性能が大きく向上したが、STYLEでは悪化した。理由としては、文体制御による単語選択に合わせて出力テキストの表層情報が変化することが挙げられる。
## カテゴリごとの網羅的な曖昧性補完は必要か 提案手法は、NLG タスクに見られる様々な曖昧性を 網羅するために、曖昧性カテゴリごとに別途補完テ キストを生成させており、さらにそれらを併用でき る。そこで、補完テキストを作成する際に明示的に カテゴリ名とその説明を与える場合と曖昧性カテゴ リを与えない場合5)、また全カテゴリの補完テキス トを同時に連結する場合の性能を比較することで、 カテゴリを明示的に、また網羅的に扱うことの重要性について調べる。
表 2 に示したように、明示的にカテゴリ名を与えない場合は、カテゴリ名を明示的に与えた場合に比べて性能が低く、補完テキストを追加しない場合と
5) fine-tuning なしの GPT-3.5を用いて、可能な限り提案手法と近いプロンプトを用いて、テンプレート “Additional information: _._.-”を穴埋めさせた。
表 2 異なる曖昧性解消方法による ROUGE スコア。值は曖昧性解消前との差分の平均値
表 3 カテゴリごとの補完テキストに従った事例の割合 (人手)と指示全体に対する IF スコア(G-Eval)
大差ない。一方で、全てのカテゴリの補完テキス卜を同時に与えた場合は、与えない場合に比べて $17.2 \%$ も性能向上が見られた。以上の結果から、曖昧性補完テキストを生成する際は補完させるべき観点を明確化すること、また複数のカテゴリを網羅的に扱うことが有効であることが示された。このためには、本研究のようにデータを分析し、観測される曖昧性カテゴリを体系化することも必要である。
また、生成した結果が実際に指示に従ったものかを人手評価および自動評価した。自動評価では、 GPT-4 に基づくNLG のための評価フレームワーク G-Eval [22]を採用した。人手評価では、補完テキストに従っている事例の割合を調べた ${ }^{6)}$ 。G-Eval は、各事例が補完テキストを追加した指示全体にどれだけ従ったかを表す Instruction Following(IF)スコアを調べた。参考值として補完テキストなしの場合のスコアも示した。各曖昧性カテゴリごとに 50 件ランダムサンプリングした結果を表 3 に示したように、人手評価では平均で $92 \%$ の事例で生成結果が曖昧性補完テキストの指示に従っていることがわかった。また自動評価でもほとんどの曖昧性カテゴリで PLAINよりも指示テキスト全体に従えていることがわかった。以上より、提案手法は曖昧性補完によってタスク性能を向上させられたと考えられる。
曖昧性は頑健性に影響を与えるか瞹昧な指示を与えられると、LLM 自身がその曖昧性を適切に補完することを強いられる。しかしその補完方法によって出力が左右されるため、曖昧な指示は明瞭な指示と比べて性能にもばらつきが生じることで頑健性にも悪影響を与える可能性がある。そこで、曖昧図 2 各事例 5 回の試行での ROUGE スコアの変動係数。
な指示と明滕な指示をそれぞれ与えた LLM から複数の出力をサンプリングし、それらに対して性能を求め、その変動係数を比較することで、指示の曖昧性が頑健性に与える影響を調べる。 temperature $=1.0 、$ top_p=0.9を採用し、ランダムにサンプリングした 100 件の事例に対してそれぞれ 5 回ずつ推論させたときの ROUGE スコアの変動係数を図 2 に示した。参考値として、補完テキストなしの設定 (PLAIN) での値も示した。変動係数が大きいほど、出力結果のばらつきが大きいことを指す。
結果、ほぼすべての曖昧性カテゴリにおいて、曖昧性解消により変動係数が最大で 27.1 ポイント減少し、出力性能のばらつきを抑制できることがわかった。そのため、曖昧な指示を用いた場合、モデル間の性能比較においてそれらの優位関係が入れ替わり得るため、頑健な比較のためには指示が明膫であることを担保する必要がある。
## 4 おわりに
本研究では、自然言語生成(NLG)における指示テキストの曖昧性解消手法の提案と、曖昧性解消がタスク性能に与える影響について調査した。既存のベンチマークセットの指示に含まれる曖昧性を体系化し、その曖昧性を補完するためのテキストを曖昧性カテゴリごとのテンプレートを用いて生成した。 そして、その補完テキストを元の指示に追加することで複数の曖昧性を網羅的に解消する手法を提案した。分析の結果、曖昧性解消は性能向上に重要であり、特に曖昧性の体系化および網羅性が重要であることがわかった。今後の展望としては、データの曖昧性や曖昧性解消結果の人手評価や、複数モデルを用いた曖昧性解消能力の調査を行いたい。
6) KEYwORD は指定したキーワードのいずれかが入っているか、LENGTH は単語の場合は系列長 $\times 0.4$ 、文の場合は文数 $\times$ 0.2 の摇れまでを許容した。
## 謝辞
有益な助言をしていただいた大阪大学の荒瀬由紀准教授に感謝いたします。
## 参考文献
[1] Tom Brown et al. Language models are few-shot learners. In NeurIPS, 2020.
[2] Jason Wei, Maarten Bosma, Vincent Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, and Quoc V Le. Finetuned language models are zero-shot learners. In ICLR, 2022.
[3] Ryuto Koike, Masahiro Kaneko, and Naoaki Okazaki. How you prompt matters! even task-oriented constraints in instructions affect $11 \mathrm{~m}$-generated text detection. arXiv preprint arXiv:2311.08369, 2023.
[4] Jules White, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, and Douglas C Schmidt. A prompt pattern catalog to enhance prompt engineering with chatgpt. arXiv preprint arXiv:2302.11382, 2023.
[5] Yu Wang and Eugene Agichtein. Query ambiguity revisited: Clickthrough measures for distinguishing informational and ambiguous queries. In HLT, 2010.
[6] Jonathan Pilault, Xavier Garcia, Arthur Bražinskas, and Orhan Firat. Interactive-chain-prompting: Ambiguity resolution for crosslingual conditional generation with interaction. In IJCNLP-AACL, 2023.
[7] Zeqiu Wu, Ryu Parish, Hao Cheng, Sewon Min, Prithviraj Ammanabrolu, Mari Ostendorf, and Hannaneh Hajishirzi. InSCIt: Information-seeking conversations with mixedinitiative interactions. TACL, 2023.
[8] Sewon Min, Julian Michael, Hannaneh Hajishirzi, and Luke Zettlemoyer. AmbigQA: Answering ambiguous open-domain questions. In EMNLP, 2020.
[9] Yizhong Wang et al. Super-NaturalInstructions: Generalization via declarative instructions on 1600+ NLP tasks. In EMNLP, 2022.
[10] Ehud Reiter and Robert Dale. Building applied natural language generation systems. NLE, Vol. 3, No. 1, pp. 57-87, 1997.
[11] David D. McDonald and James D. Pustejovsky. A computational theory of prose style for natural language generation. In EACL, 1985.
[12] Karen Kukich. Design of a knowledge-based report generator. In ACL, 1983.
[13] Regina Barzilay and Mirella Lapata. Modeling local coherence: An entity-based approach. In ACL, 2005.
[14] David Reitter, Frank Keller, and Johanna D. Moore. Computational modelling of structural priming in dialogue. In NAACL, pp. 121-124. Association for Computational Linguistics, 2006.
[15] Angela Fan, David Grangier, and Michael Auli. Controllable abstractive summarization. In WNMT, 2018.
[16] Bosheng Ding, Chengwei Qin, Linlin Liu, Yew Ken Chia, Boyang Li, Shafiq Joty, and Lidong Bing. Is GPT-3 a good data annotator? In ACL, July 2023.
[17] Fabrizio Gilardi, Meysam Alizadeh, and Maël Kubli. Chatgpt outperforms crowd-workers for text-annotation tasks. PNAS, 2023.
[18] Haopeng Zhang, Hayate Iso, Sairam Gurajada, and Nikita Bhutani. Xatu: A fine-grained instruction-based benchmark for explainable text updates. arXiv, 2023.
[19] Steven Bird. NLTK: The Natural Language Toolkit. In COLING-ACL, 2006.
[20] Ricardo Campos, Vítor Mangaravite, Arian Pasquali, Alípio Jorge, Célia Nunes, and Adam Jatowt. Yake! keyword extraction from single documents using multiple local features. Information Sciences, Vol. 509, pp. 257289, 2020.
[21] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, 2004.
[22] Yang Liu, Dan Iter, Yichong Xu, Shuohang Wang, Ruochen Xu, and Chenguang Zhu. G-eval: NLG evaluation using gpt-4 with better human alignment. In EMNLP, 2023.
[23] Albert Lu, Hongxin Zhang, Yanzhe Zhang, Xuezhi Wang, and Diyi Yang. Bounding the capabilities of large language models in open text generation with prompt constraints. In Findings of the EACL, 2023.
\\
表 4 曖昧性カテゴリと “Write a summary about climate change.”という指示に対する補完テキストの例
## A 曖昧性解消データセット詳細
作成プロセスの詳細 STYLE の穴埋めは、代表的な項目や先行研究 [23] で用いられている分類7)への分類問題として行なった。PLANnING は、テキストの大域的な構造を対象としていることから、出力テキストが 2 文以上から構成される事例にのみ適用した。また、KEYWORDはキーワード抽出器がキーワー ドがあると判定した事例のみ対象とした。
人手によるデータ選定基準選定基準は、(1) 内容が適切である (2) 出力テキストが何かが明示する記述を含まない (3) 出力テキストに対して明らかな間違いを含まない (4) 別の曖昧性カテゴリの記述を含まない (5) 指示テキストや入力テキストと大きく内容が重複しないことである。
## B 分析結果詳細
## 補完テキストによる出カテキストのリーク評価補完テキストによる出力テキストのリークについて 評価するため、出力テキストとの単語の一致度合い を ROUGE で評価した結果を表 5 に示した。参考値 として、入力テキストと出力テキストでのスコアも 示した。これによると、すべての曖昧性カテゴリに おいて補完テキストは入力テキストでのスコアと比較して同程度あるいは大幅に低い値であった。
GPT-4 は曖昧性を認識できるか 3.2 節の分析で用いた追加テキスト (RANDom、OvERLAP) の曖昧
表 5 補完テキストと入力テキストそれぞれの出力テキストとの ROUGE スコア
図 3 各曖昧性カテゴリでの曖昧性評価の正答率
性カテゴリごとの曖昧性評価の正答率をもとに、 GPT-4 がもつ曖昧性の判断能力について調べる。 RANDOM が与えられた場合は、情報量が増えているが有用な情報ではなく曖昧性は解消できない。元の指示テキストと内容が競合する場合は曖昧性レベルが上昇することもある。また OVERLAP が与えられた場合は、情報量も増えておらず曖昧性は解消できない。そのため、曖昧レベルは同程度である。以上より、各テキストを指示テキストに追加した際の曖昧性評価の正答率 $P_{R} 、 P_{O}$ は以下のように計算される。両正答率ともに、 $100 \%$ に近いほど良い。
$
\begin{aligned}
& P_{R}=\frac{\text { 減少・不変ラベルが振られた事例数 }}{\text { 総事例数 }} \\
& P_{O}=\frac{\text { 不変ラベルが振られた事例数 }}{\text { 総事例数 }}
\end{aligned}
$
各追加テキストの正答率を図 3 に示した。結果によると、RANDom、OVERLAP に対してほとんどのカテゴリで正答率が $90 \%$ を超えた。全カテゴリ平均ではそれぞれ 94\%を超える。つまり、GPT-4 は曖昧性が補完された現象と情報量や系列長が増えた現象をある程度明確に区別できていることが示唆される。
7) 'descriptive, expository, narrative, persuasive, directive, conversational, technical, journalistic, review, poetic, formal, informal, optimistic, assertive, dramatic, humorous, sad, passive-aggressive, worried, friendly, curious, encouraging, surprised, cooperative' | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-1.pdf | # 土木分野における LLM を用いた言語モデル評価手法の提案
緒方 陸 ${ }^{1}$ 大久保 順一 ${ }^{1}$ 藤井 純一郎 ${ }^{1}$ 天方 匡純 ${ }^{1}$
1 八千代エンジニヤリング株式会社
\{rk-ogata, jn-okubo, jn-fujii, amakata\}@yachiyo-eng. co. jp
## 概要
土木分野においても自然言語処理技術への期待は大きく, 近年実用へ向けた検討が増加している。この技術が充分に機能するためには,文脈を考慮した土木専門用語の言語モデルによる理解が必要であり, その適切な評価が求められる. しかし, 既往研究はいかに土木分野へ適応させるかに焦点を当てた研究が多く, 言語モデルの文章生成能力の評価には重きが置かれていない. そこで本研究では, 土木分野における言語モデルの性能評価のため, 評価の際に一度 LLM で要約することで評価を行う自動評価手法を提案する。語彙数が多く回答長が長い場合には,既往手法に比較して本手法が有効に働き,より人手評価に近い結果となることを示した.
## 1 はじめに
近年,土木分野において従来紙により管理されていた諸元や巡視・点検情報がデジタル化されている. これに伴い,土木技術者の作業効率化 - 省力化へ向けた自然言語処理活用研究例も増加している
$[1,2,3,4,5]$. 一方で, いかに土木分野へドメイン適応させるかに焦点が当てた研究が多く, 言語モデルの文章生成能力の評価には重きが置かれていない。また,土木用語を含む文章の正確性を評価する手法の確立やデータセットの整備は課題としても指摘されている[2]. 評価手法の一つとして, 人手評価はよく用いられるが,時間的・金銭的コストが高い。そのため, 研究・開発の加速へ向けては自動評価手法の確立が必要となる.
本研究では, 土木分野における言語モデルの性能評価のため, 言語モデルが適切に文章を理解し, 土木工学の文脈を考慮して文章を生成できるかを測る評価手法の確立を目指す。QA タスクにおいて, 既往評価手法と提案手法を人手評価と比較し, どの手法が土木分野において適切な評価が可能かを検討した.
## 2 既往研究
## 2.1 ドメイン適応
自然言語生成(Natural Language Generation; NLG) タスクの評価手法として, BLEU [6]や ROUGE [7], BERTScore [8]などがあるが,類義語の判定ができない,専門用語の評価が困難などの問題がある.
土木分野における自動評価例としては,技術文書の分類精度を評価した例[1,3]やキーワードの重なり具合を測る Keyword Intersection, 文章生成の流暢さを測る Perplexity を適用したものがある[2].しかし分類精度は言語モデルの文章生成能力を測るものとしては適さない。また, Keyword Intersection, Perplexity は次の問題がある. 日本語の場合, Keyword Intersection による評価を行う場合は形態素解析の必要がある.その際専門用語は辞書登録されておらず,適切に評価できない可能性がある。この辞書整備の課題については箱石ら[1]も指摘している. Perplexity は,文章生成における流暢さを測る指標であり,単語の発生確率から算出するため, 藤井ら[2]の指摘の通り専門的な内容を評価するには向かない。
土木以外の特定ドメインにおいては,BERT をフアインチューニングすることで特定ドメイン $[9,10,11]$ に適応した例がある。また近年では,ドメイン特化の大規模コーパスでLLMを学習させることで, ドメイン適応した例[12,13]も存在する. これらの例では分類,固有表現抽出(NER),QAタスクなどの精度 (Accuracy / Precision / Recall / F1 score) や単語間ベクトル類似度,人手評価などで特定ドメインの性能を評価しているが, ベンチマークデータセットによる評価であり, データ整備が必要である.
## 2. 2 LLM を用いた自動評価
近年では自動評価手法として大規模言語モデル (LLM)を用いた方法も存在する。Wang らはハイパーパラメータの自動チューニングを目的に,パラ
メータサイズ 7B 程度のモデルを学習させることで GPT-3.5 や GPT-4 に近い精度の評価能力を持たせることを可能にした[14]. また,笠原ら[15]も日本語のタスクにおいて, LoRA などによる LLM チューニング手法により, 既往の自動評価手法と同等以上の精度を示している. しかしこれらは学習データ整備や学習のコストが発生する. 現状データ整備が進んでいない土木分野においては学習不要な自動評価手法が望ましい。
学習不要な自動評価手法として, GPTScore が提案されている[16]. GPTScore は, GPT-3.5などの LLM が, 入力に従って高品質のテキストを生成する確率が高いという前提のもと, 条件付き生成確率でスコアを計算する方法である.また Liu ら[17]は, GPT-3.5 やGPT-4 の出力スコアの確率を使用し, それらの加重合計を最終結果として得る方法を提案した. ただし同著者ら[17]は LLM は LLM が生成した回答をより好む傾向があるなど問題を指摘している。そのほか WebUI 実装の必要はあるが,Web 上でユーザー が入力した質問に対し, 複数の LLM の回答を表示させ,より好ましい回答をユーザーが選択することで評価を行うプラットフォームもある[18].
ここで Zheng ら[18]は, LLM には潜在的な限界があるとして,(1) Position bias ; 選択肢が先のものを好むなど回答の順序に影響を受けるバイアス,(2) Verbosity bias ; 明確でなく, 品質が低く, 正確でないとしても,より長く朵長な回答を好むバイアス,
(3) Self-enhancement bias; 自分で作成した回答を支持するバイアス,を指摘している。同様に Saito ら[19] もVerbosity bias について調査し, 人手評価が短い回答を高く評価している場合, LLM の人手評価との一致度は低くなる傾向を確認している。
以上のように,バイアスにも留意しつつ,LLMを用いた評価を行う必要がある.著者らが確認した限りでは土木分野に上記手法を適用した例は無く, その活用が期待される.
## 2.3 本研究の目的
LLM は大規模なコーパスで学習しており, 土木分野も一部学習している。また,LLM は N-gram ゙ー スの手法のようにキーワードのみではなく,長いコンテキストを踏まえて評価可能と考えた。
本研究では,データ整備が進んでいない状況下で,土木分野においてより適切な自動評価手法の確立を目指し,LLM を用いた評価手法を提案する。
## 3 実験方法
## 3. 1 データセット
評価用データセット作成にあたり,国土技術政策総合研究所の資料[20]青いた. 当資料は橋梁設計分野の実務においても使用され,橋梁計画における基本条件設定やリスク評価について記載された資料である。この資料から人手により,自然言語処理分野で一般的なタスクである Closed-book QA タスクのデータセット(全 50 件)を作成した. 参考として例を付表 1 に示す.なお,作成においては資料の文章から抜き出したものを正解の回答とし, LLM 自体が知識を保有(学習してパラメータに暗黙的に保持) していれば回答できる内容となっている。また前提として, ユーザーが Question を入力した際に欲しい回答として Answer を想定している.
## 3. 2 実験方法
文章生成モデルには Llama 2 -Chat (7B) [21],
GPT-3.5-turbo [22], GPT-4 [23], PaLM 2 (Bison) [24] を使用した。また入出力は日本語とし,以下をプロンプトとして与えた。なお,\{q\}は QA データセットの質問を表す。
\#\# 指示:
橋梁設計技術者として、以下の質問に"日本語で "回答してください。 \#\#\# 制䄪:
一単語や文章を 3 回以上繰り返す出力は禁止します。
一日本語以外の言語の出力は禁止します。
質問: $\{q\}$
\#\#\# 回答:
上記プロンプトで生成したテキストを用い,次節で述べる人手評価と各種自動評価手法を比較した。両結果の比較には Spearman の順位相関係数を用い, どの自動評価手法が人手評価に近いかを評価した。 なお, 回答の生成は全てのモデルで一度のみ行った。
## 3. 3 評価方法
## 3.3. 1 人手評価
人手評価は半自動のキーワード評価を組み合わせる形で実施した.キーワード評価は次の方法で行う.
\\
自動でキーワード評価を実施する場合は専門用語の抽出が問題となるため,まず著者が人手で正解の回答からキーワードを抽出することでこの問題に対処した. 次に,抽出したキーワードが生成した回答にどの程度含まれるかを算出し, その割合を keyword score とした. なお, 正解および生成した回答に含まれるキーワードはユニークなものを用いた。キーワ一ド評価後, 土木工学系大学院生 4 名によりモデルが生成した文章を 5 段階で評価した. 評価基準は表 1 に示す. 4 名の作業者間の評価結果に相関があることを確認し,これらの平均を正解スコアとした。
## 3. 3.2 自動評価
## 既往手法
既往自動評価手法として, BLEU-4, ROUGE-1 / ROUGE-2 / ROUGE-L, BERTScore の F1 值を算出した。ここで, Zheng ら[18]は LLM を用いた評価手法として次の 3 つを挙げている. (1) Pairwise comparison; LLM に 1 つの質問と 2 つの回答を提示し, どちらが優れているかを判定する方法 (2) Single answer grading; LLM に 1 つの回答を渡し, 直接スコアを割り当てる方法 (3) Reference-guided grading; LLM に reference を提供し, 優れている回答を判定またはスコアリングする方法. 本研究では QA デー タセットを作成し reference を使用可能なため, (3) Reference-guided grading $の$ 方法として G-Eval [17]を採用した. G-Eval について, 原著論文[17]では要約タスクで Coherence, Consistency, Fluency, Relevance を採用している. 本研究では「言語モデルが適切に文章を理解し,土木分野の文脈を考慮して文章を生成できるか」を測るため,生成されたテキストの内容を評価する Relevance のみを採用した。なお,プロンプトは Liu ら[17]のものを和訳して使用した。
## 提案手法
本稿では Liu らの G-Eval [17]をべースに表 1 に示す基準を踏まえてプロンプトを調整した。参考として,使用したプロンプトは付図 1 に示す.
また, 2.2 節で述べたバイアスへの対応も検討するまず,Self-enhancement bias の対応として,今回文章生成に使用していない Google 社の Gemini-Pro[25] を評価モデルに使用することで Self-enhancement bias の影響を軽減できると考えた. さらに提案手法として, Verbosity bias 軽減を目的とし, 生成した文章を要約した上で評価を行う方法を採用した
(Proposed-gpt4 / gemi) . なお Position bias について,本稿ではモデル同士の相対評価は実施しないため, Position bias の影響は受けないと考えている.
今回採用した LLM を用いた評価手法一覧を表 2 に示す.プロンプト,要約・評価モデルの違いにより全 5 ケースとなる. 既往手法との比較およびバイアスへの対応の貢献は,結果とともに次節で示す.
表 2 LLM を用いた評価手法
## 4 結果と考察
表 3 に結果を示す.上段は既往手法,下段は今回新たにプロンプト等を検討した提案手法である.表中の全体評価は全モデルのスコアをまとめて評価した結果,平均は各モデルの結果の算術平均である.
結果から,全体評価は既往手法のうち BERTScore が最も人手評価に近い結果を示した。ただし後述する今回の結果からは,各モデルは異なる特性を持つと考えられ,モデルを跨いだ全体評価は適切な評価指標になり得ないと推察した。よって, 以降は各モデルの評価結果について考察する.
G-Eval および G-Eval-gpt4 は,Llama2 を除いて
BERTScore を超えるスコアを発揮した. Llama2 で相関がやや低くなった原因として,G-Eval は関連性の
表 3 実験結果人手評価と各手法の相関(太字:最高スコア, 下線 : 次点スコア)
強い重要な情報のみで評価しており Llama2 は全体的に低評価となったこと, G-Eval-gpt4 は冗長な回答でも高評価とする傾向があることが挙げられる。また, G-Eval-gemi は G-Eval および G-Eval-gpt4 と比較して同等以下のスコアであった.これらは評価モデルの性能の違いによるものと考えた. Gemini-Proの性能は多くのテキストベンチマークでGPT-4には劣っている[25]. よって G-Eval-gemi が低いスコアとなった原因は, Gemini-Pro よりも GPT-4 の方が評価能力が高く, Self-enhancement bias の影響よりもこの差の影響が大きいためと推察した。この傾向は
Proposed-gpt4/gemi でも確認できる.
Proposed-gpt4 の GPT-4 の評価は, 今回採用した手法の中で最も人手評価との相関が高い結果となった. ここで, 表 4 に各モデルが生成した回答の語彙数および回答の平均長さを示す. なお語彙の抽出は, 出力として日本語を想定していること, および英語の出力は主に Llama2 のものであり, かつ質問文などの繰り返しが大半であることから, 日本語のみを対象としている。表より, Llama2, GPT-3.5, PaLM2 は同程度の語彙数であるのに対し, GPT-4 は回答長が長く, 他モデルの 2 倍程度の語彙を持つ. この結果から, 語彙数が少ない場合には N-gram ベースの手法などの既往手法である程度の評価が可能だが,今回の GPT-4 の結果のように語彙数が多い場合には既往手法では評価が困難であると考えた。加えて, Proposed-gpt4 が GPT-4 の生成した回答の評価において比較的人手に近い評価となったことから, 語彙数が多く回答長が長い場合には回答を要約後に評価する方法が有効に働き, Verbosity bias を軽減できる可能性を示した。一方で Llama2 の評価においては,要約により, 英語による質問文繰り返しなど明らかに不要な表現が除かれたことで人手評価との相関が低くなったと推察した. Proposed-gemi に着目すると,要約により GPT-4の評価スコアは向上しているものの, その他モデルの評価は G-Eval-gemi と同程度となった.この結果から, LLMを用いた評価と人手評価との相関は評価モデルに依存すると考えた.
表 4 各モデルが生成した回答の語彙数と回答平均長さ
## 5 おわりに
本稿では,土木分野の QA タスクにおいて,既往の評価手法と本研究で提案する評価手法について人手評価と比較し, どの手法が土木分野において適切な評価が可能かを検討した。提案手法による評価は既往手法と同等以上のスコアを発揮し, 特に語彙数が多く回答長が長い場合においては, 生成された回答を要約してから評価することで Verbosity bias を軽減できる可能性を示唆した。
本検討に関して留意すべき点として二点挙げる. まずデータ不足について,今回用いたデータセットは 50 件と小規模であり,このバイアスが結果に表れた可能性がある。土木業界全体としてデータ整備が進んでいないため, 業界全体で取り組むべき課題であると考える。また,今回プロンプトは手動で作成した。一方で近年では自動で動的にプロンプトを生成する方法もあり[26], これにより精度が向上する可能性がある. LLM による評価はプロンプトに敏感であり[17], この検討も必要であると認識している.
## 参考文献
[1] 箱石健太,一言正之,菅田大輔. 土木分野における事前学習モデル BERT による精度検証. 土木学会論文集特集号(土木情報学), 79 巻 22 号, 22-22042, 2023.
[2] 藤井純一郎, 大久保順一, 緒方陸, 天方匡純. LLM を土木分野に適応するための基礎的研究, pp.779-785, $\mathrm{AI}$ ・データサイエンス論文集, 4 巻 3 号, 2023.
[3] 菅田大輔,箱石健太,一言正之.土木・建設分野における大規模言語モデルの利活用に向けた検証と考察,pp.670-676, AI・データサイエンス論文集, 4 巻 3 号, 2023.
[4] 青島亘佐, 宮内芳維. 大規模言語モデルの活用による橋梁点検調書作成の省力化に関する検討, pp.274-284, AI・データサイエンス論文集, 4 巻 3 号, 2023.
[5] 稲富翔伍, 山根達郎, 金崎裕之, 全邦釘. 大規模言語モデルと画像セグメンテーションによる専門知撞融合型土砂災害危険性判断手法, pp.507-514, AI・デ一タサイエンス論文集, 4 巻 3 号, 2023.
[6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: A method for automatic evaluation of machine ranslation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002
[7] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Proceedings of the ACL Workshop: Text Summarization Branches Out, pp. 74-81, 2004.
[8] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating text generation with BERT. In Proceedings of the Eighth International Conference on Learning Representations, 2020.
[9] Iz Beltagy, Kyle Lo, Arman Cohan. SciBERT: A pre-trained language model for scientic text. In Pro-ceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th Internation-al Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019.
[10] Kexin Huang, Jaan Altosaar, Rajesh Ranganath. ClinicalBERT: Modeling Clinical Notes and Predicting Hospital Readmission. arXiv preprint arXiv:1904.05342, 2019 .
[11] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinform., Vol. 36, No. 4, pp. 1234-1240, 2020
[12] Shijie Wu, Ozan Irsoy, Steven Lu, Vadim Dabravolski, Mark Dredze, Sebastian Gehrmann, Prabhanjan Kambadur, David Rosenberg, Gideon Mann. BloombergGPT: A large language model for finance. arXiv preprint arXiv:2303.17564, 2023.
[13] Karan Singhal, Tao Tu, Juraj Gottweis, Rory Sayres, Ellery Wulczyn, Le Hou, Kevin Clark, Stephen Pfohl, Heather Cole-Lewis, Darlene Neal, Mike Schaekermann, Amy Wang, Mohamed Amin, Sami Lachgar, Philip Mansfield, Sushant Prakash, Bradley Green, Ewa Dominowska, Blaise Aguera y Arcas, Nenad Tomasev, Yun Liu, Renee Wong, Christopher Semturs, S. Sara Mahdavi, Joelle Barral, Dale Webster, Greg S. Corrado, Yossi Matias, Shekoofeh Azizi, Alan Karthikesalingam, Vivek Natarajan. Towards expert-level medical question answering with large language models. arXiv preprint arXiv:2305.09617, 2023.
[14] Yidong Wang, Zhuohao Yu, Zhengran Zeng, Linyi Yang, Cunxiang Wang, Hao Chen, Chaoya Jiang, Rui Xie,
Jindong Wang, Xing Xie, Wei Ye, Shikun Zhang, Yue Zhang. PandaLM: An Automatic Evaluation Benchmark for LLM Instruction Tuning Optimization. arXiv preprint arXiv:2306.05087, 2023.
[15] 笠原智仁,河原大輔,山崎天,新里顕大,佐藤敏紀. Decoder ベースの大規模言語モデルに基づくテキス卜生成の自動評価指標. 言語処理学会第 29 回年次大会, pp.1940-1945, 2023.
[16] Jinlan Fu, See-Kiong Ng, Zhengbao Jiang, Pengfei Liu. GPTScore: Evaluate as You Desire. arXiv preprint arXiv:2302.04166, 2023.
[17] Yang Liu, Dan Iter, Yichong Xu, Shuohang Wang, Ruochen Xu, Chenguang Zhu. G-Eval: NLG Evaluation using Gpt-4 with Better Human Alignment. In Proceedings of the 2023 Conference on Empirica Methods in Natural Language Processing, pages 2511-2522, Singapore. Association for Computational Linguistics, 2023.
[18] Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric P. Xing, Hao Zhang, Joseph E. Gonzalez, Ion Stoica. Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena. arXiv preprint arXiv:2306.05685, 2023.
[19] Keita Saito, Akifumi Wachi, Koki Wataoka, Youhei Akimoto. Verbosity Bias in Preference Labeling by Large Language Models. arXiv preprint arXiv:2310.10076, 2023.
[20] 国土技術政策総合研究所国土交通省. 道路橋の設計における諸課題に関わる調査(2018-2019). 国土技術政策総合研究所資料, No.1162, 2021.
[21] Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, Dan Bikel, Lukas Blecher, Cristian Canton Ferrer, Moya Chen, Guillem Cucurull, David Esiobu, Jude Fernandes, Jeremy Fu, Wenyin Fu, Brian Fuller, Cynthia Gao, Vedanuj Goswami, Naman Goyal, Anthony Hartshorn, Saghar Hosseini, Rui Hou, Hakan Inan, Marcin Kardas, Viktor Kerkez, Madian Khabsa, Isabel Kloumann, Artem Korenev, Punit Singh Koura, Marie-Anne Lachaux, Thibaut Lavril, Jenya Lee, Diana Liskovich, Yinghai Lu, Yuning Mao, Xavier Martinet, Todor Mihaylov, Pushkar Mishra, Igor Molybog, Yixin Nie, Andrew Poulton, Jeremy Reizenstein, Rashi Rungta, Kalyan Saladi, Alan Schelten, Ruan Silva, Eric Michael Smith, Ranjan Subramanian, Xiaoqing Ellen Tan, Binh Tang, Ross Taylor, Adina Williams, Jian Xiang Kuan, Puxin Xu, Zheng Yan, Iliyan Zarov, Yuchen Zhang, Angela Fan, Melanie Kambadur, Sharan Narang, Aurelien Rodriguez, Robert Stojnic, Sergey Edunov, Thomas Scialom. Llama 2: Open foundation and fine-tuned chat models. arXiv preprint arXiv:2307.09288, 2023.
[22] OpenAI. GPT-3.5. (オンライン) (引用日: 2024.1.11.) https://platform.openai.com/docs/models/gpt-3-5
[23] OpenAI. GPT-4 Technical Report. arXiv preprint, arXiv: 2303.08774v3, 2023.
[24] Google. PaLM 2 Technical Report. arXiv preprint arXiv:2305.10403., 2023.
[25] Gemini TeamGoogle. Gemini: A family of highly capable mul-timodal models. arXiv preprint arXiv:2312.11805, 2023.
[26] Harsha Nori, Yin Tat Lee, Sheng Zhang, Dean Carignan, Richard Edgar, Nicolo Fusi, Nicholas King, Jonathan Larson, Yuanzhi Li, Weishung Liu, Renqian Luo, Scott Mayer McKinney, Robert Osazuwa Ness, Hoifung Poon, Tao Qin, Naoto Usuyama, Chris White, Eric Horvitz. Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine. arXiv preprint arXiv:2311.16452, 2023.
## 付録
付表 1 QAデータセットサンプル
付図 1 調整したプロンプト(紙面の都合上一部改行を割愛) | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-2.pdf | # IIm-jp-eval: 日本語大規模言語モデルの自動評価ツール
Namgi Han ${ }^{1}$ 植田 暢大 ${ }^{2 *}$ 大获 匡俊 $1 *$ 勝又 智 $3 *$ 鎌田 啓輔 $4 *$ 清丸 寛一 $2 *$ 児玉 貴志 $2 *$菅原 朔 5* Bowen Chen ${ }^{1 *}$ 松田 寛 $6 *$ 宮尾 祐介 $1 *$ 村脇有吾 $2 *$ 劉弘毅 $7 *$
1 東京大学 2 京都大学 ${ }^{3}$ 株式会社レトリバ ${ }^{4}$ Weights \& Biases Japan
5 国立情報学研究所 6 株式会社リクルート 7 株式会社 Citadel AI
\{hng88, otake, bwchen, yusuke\}@is.s.u-tokyo.ac.jp
\{ueda,kiyomaru,kodama, murawaki\}@nlp.ist.i.kyoto-u.ac.jp
satoru.katsumata@retrieva.jp keisuke.kamata@wandb.com
saku@nii.ac.jp hiroshi_matsuda@megagon.ai koki@citadel.co.jp
## 概要
日本語の大規模モデルが次々と発表される中,その自動評価が重要性を増している。本稿では,日本語の大規模言語モデルに対する評価ベンチマー ク llm-jp-eval を提案する. 1lm-jp-eval は 8 カテゴリ,計 12 個の日本語の自然言語処理の公開評価データを用いて,言語モデルの生成結果を自動的に評価する. 評価は全て生成問題に基づくもので,既存の評価データセットにプロンプト形式を適用して自動変換した問題に対する言語モデルの回答を評価する。本稿では $11 \mathrm{~m}$-jp-eval を用いて様々な日本語大規模言語モデルを評価した結果を報告し,既存研究の知見に照らして議論する。
## 1 はじめに
ChatGPT をはじめとする大規模言語モデルの成功は全世界に大きな影響をもたらした. 日本も例外でなく,様々な日本語の大規模言語モデルが発表され続けている.これにともない,大規模言語モデルの性能評価が重要性を増している。
海外では大規模言語モデルが発表される際に,テクニカルレポートで既存の評価データセットを網羅した評価結果を報告する傾向が見られる.1)また Big-Bench [1]をはじめとする,大規模言語モデルの能力を測るためのベンチマークも充実している。それに比べ,日本語では JGLUE [2] が構築されているとはいえ,他の大規模言語モデルに対する評価ベンチマークは少ない.
本研究では,既存研究で提案されている 12 個の日本語の評価データセットを用いて大規模言語モデルの性能を評価するベンチマーク $1 \mathrm{~lm}$-jp-eval を提案する.1lm-jp-eval は,既存の評価データセットにプロンプト形式を適用することで全ての問題を生成問題に変換し,言語モデルが生成した回答に基づき評価を行う. $11 \mathrm{~m}$-jp-eval を用いた評価を公開大規模モデルに適用した結果,パラメータの数と日本語の継続学習が評価スコアに影響を与えることを確認できた. 1lm-jp-eval は Apache License 2.0 のもとオープンソースのソフトウェアとして公開されている. ${ }^{2)}$
## 2 関連研究
大規模言語モデルの評価ベンチマークは英語・中国語を対象として多くのものが提案されている. Chang ら [12]によると現時点で 40 個以上のベンチマークが存在し, その数は今なお増え続けている. また,これらの評価ベンチマークは自然言語推論をはじめとした伝統的な自然言語処理の課題はもちろ几,自動翻訳やコード生成などの生成問題から,社会的バイアスや信頼性などの安全性検証まで幅広くカバーしている. 例えば大規模言語モデルの研究開発が活発化する前に評価ベンチマークとして提案されていた GLUE [13] は9つのタスクで構成され,生成問題や安全性検証などの課題は含まれていない. それに比べ,大規模言語モデルの代表的な評価ベンチマークである Big-Bench は 200 以上の課題で構成され,GLUEが扱っていない様々な言語理解能力を評価している.
日本語の大規模言語モデルは, 2022 年 1 月に $1.3 \mathrm{~B}$
2)この論文の内容は以下のページで公開されている $11.2 .0 を$元に作成された : https://github.com/llm-jp/llm-jp-eval
図 1 llm-jp-eval の評価フレームワーク.
表 1 llm-jp-eval が対応している評価データセット.
パラメータの言語モデルを公開した rinna [14] をはじめ,様々なモデルが公開されるようになった. 2023 年は特にその傾向が強く, ELYZA [15], Japanese Stable LM [16], LLM-jp ${ }^{3}$, OpenCALM ${ }^{4}$, PLaMo [17], rinnaの 3.6B と 4B パラメータのモデル5), stockmark ${ }^{6)}$, Weblab $^{7)}$, Swallow [18] などが発表された.
しかし,日本語の大規模言語モデルの性能を検証するための評価ベンチマークの整備は追いついていない. 日本語の大規模言語モデルの評価に用いられる評価ベンチマークとして, JGLUE [2] の他に JP Language Model Evaluation Harness ${ }^{8)}$ がある. JP
3) https://huggingface.co/llm-jp
4) https://huggingface.co/cyberagent/open-calm-7b
5) https://huggingface.co/rinna/japanese-gpt-neox-3.6b https://huggingface.co/rinna/bilingual-gpt-neox-4b
6) https://huggingface.co/stockmark/ gpt-neox-japanese-1.4b
7) https://huggingface.co/matsuo-lab/weblab-10b
8) https://github.com/Stability-AI/
lm-evaluation-harness/tree/jp-stable
Language Model Evaluation Harness は JGLUE を取り入れつつ, JAQKET [19], JaQuAD [20], JBLiMP [21] のような日本語の評価データセット,そして MGSM [22], WikiLingua [23] XL-Sum [24],XWinograd [25] のような多言語評価データセットをサポートしている. しかし,JP Language Model Evaluation Harness は課題によって,評価を行う際に評価対象の大規模言語モデルの生成結果ではなく,出力ラベルの対数尤度を使う場合がある.9)そのため,純粋に大規模言語モデルの生成結果で性能を評価していないという限界があった。
大規模言語モデルの対数尤度ではなく, 生成結果を評価する評価ベンチマークが求められる中, JGLUE に対する生成結果を評価した Nejumi リー ダーボード10) が提案された。しかし,Nejumiリー
9) https://note.com/wandb_jp/n/n2464e3d85c1a
10) https://wandb.ai/wandb/LLM_evaluation_Japan/ reports/LLM-JGLUE---Vmlldzo0NTUzMDE2
図 $211 \mathrm{~m}$-jp-eval で自動変換された自然言語推論の問題の例.
ダーボードには JGLUE だけが対象という限界があり,後に JGLUE 以外の評価データセットを新たに取り込んだ Nejumi リーダーボード Neo ${ }^{11 )}$ と改良されたが,幅広い評価データセットを用いた評価は依然として必要とされている.
大規模言語モデルの出力を評価データセットが提供する正解と比較して評価するのではなく,オープンクエスチョンに対する大規模言語モデルの生成結果を GPT-4 のような相対的に強力な大規模言語モデルに評価させる手法も注目されている [26]. 決まった回答を用意することが困難なこの系列の日本語の評価ベンチマークとして, Japanese MT-Bench ${ }^{12)}$, Japanese Vicuna QA ${ }^{13)}$, Rakuda ベンチマーク14) などがある. しかし,これらの評価ベンチマークは特定の大規模言語モデルに依存しているため, 回答の与え方, 回答の冗長さ, 評価を行うモデルと評価対象のモデルの類似性などのバイアスに影響された評価結果になる可能性がある [26].
## 3 IIm-jp-eval
本研究では,大規模言語モデルの生成結果に基づき評価を行うベンチマーク $11 \mathrm{~m}$-jp-eval を提案する. $11 \mathrm{~m}$-jp-eval の評価フレームワークを図 1 に示す.
lllm-jp-eval は既存研究で提案された日本語の評価データセットを使用する. 表 1 に 1lm-jp-eval が対応している評価データセットを示す. 評価データセットには商用利用が可能なライセンスのもと公開されているものを選定している. 1lm-jp-eval は評価デー タを含んでいないため,評価データは公開先からダウンロードする必要があることに注意されたい.
llm-jp-eval は全ての評価データセットを生成問題として定式化し,回答として生成された文字
11) https://wandb.me/nejumi
12) https://github.com/Stability-AI/FastChat/tree/
jp-stable/fastchat/llm_judge
13) https://github.com/ku-nlp/ja-vicuna-qa-benchmark
14) https://yuzuai.jp/benchmark列と正解の文字列を比較することで評価を行う. 1lm-jp-eval が対応している評価データセットには生成問題として設計されてないものが多く含まれる. そのため,評価データセットはデータセットごとに設計したプロンプト形式15)を適用することで生成問題に変換する.変換された評価データセットの問題の具体例を図 2 に示す. 1lm-jp-eval はこのポリシー によって,大規模言語モデルが回答として生成した文字列を自動評価するという統一された手法を全ての評価データセットに適用する.
評価スコアは評価データセットに用意されている正解データ,大規模言語モデルの生成結果,そして評価データセットごとに決まっている評価指標によって計算される. また, llm-jp-eval はカテゴリー ごとに平均スコアを取った結果も提供している. この結果は JSON ファイルとしてローカルに出力される上,Weights \& Biases [28]を通じてクラウド上で管理する機能もサポートしている。
## 4 IIm-jp-eval による評価例
本稿では日本語の公開大規模言語モデルの一部と,継続学習のベースモデルとして使われている海外の大規模言語モデルの評価結果を示す. 大規模言語モデルは Hugging Face Hub ${ }^{16)}$ に公開されているものを用いた。 ハイパーパラメータ17)とプロンプト形式は同じもので統一した。評価は全て 4-shots で行った. 各カテゴリーのスコアはそのカテゴリーに所属している評価データセットのスコアの平均で計算した。なお,平均スコア(AVR)の計算にはSTS を含めていない。これはSTS が他のカテゴリーと異なり評価指標が相関係数で, -1 から 1 までの数値であるためである.
評価結果を表 2 に示す。その他のモデルを含むよ
表 $21 \mathrm{~lm}$-jp-eval の評価例. AVR は STS を除く評価スコアの平均.
り詳細な評価結果は, Weights \& Biases 上で公開しているリーダーボード18)を参照されたい。
表 2 の上段はパラメータの違いによる評価スコアの違いを示す. OpenCALM と LLM-jp の両方で,パラメータの数が増えるごとに評価スコアも高くなる傾向が確認された. 特に $\mathrm{QA}$ と $\mathrm{RC}$ でその傾向が強く, 言語モデルが大規模であるほど与えられた問題に対する答えの生成能力が高くなるという既存の知見と合致する結果となった.
表 2 の下段は主に英語を対象としている海外の大規模言語モデルと, それに対して日本語の継続学習を行った日本語の大規模言語モデルの評価結果を示す. Swallow, ELYZA, Japanese Stable LM Beta は Llama2 に日本語のコーパスで継続学習を施した言語モデルである. Japanese Stable LM Gamma は Mistral を継続学習したモデルである. どちらの評価スコアも,日本語のコーパスで継続学習を行った言語モデルの方が高く, 継続学習によって日本語の言語理解が改善されていることが分かる.また,こちらでも上と同じく QA と RC で評価スコアの向上が観測された.
しかし,パラメータの数の増加や継続学習の実施により,あらゆるタスクで一貫して性能が向上しているわけではない. NLI,FA,STS の評価スコアがその例である. これらのタスクはそもそも生成問題として設計されていないタスクという共通点はあるが,原因の詳細な分析は今後の課題とする.
## 5 おわりに
本研究では日本語の大規模言語モデルに対する評価ベンチマークである $1 \mathrm{~m}$-jp-eval を構築した. 既
18) https://wandb.me/llm-jp-leaderboard存のベンチマークと同じく, llm-jp-eval は公開評価データセットを評価対象として取り入れている。しかし,その評価データセットを全て生成問題とみなして評価しているという点で異なり,評価対象としているデータセットが全て商用利用可能なライセンスのもと公開されているため, 研究はもちろん企業での大規模言語モデルの開発でも $1 \mathrm{~lm}$-jp-eval を取り込みやすいという利点がある ${ }^{19)}$ 。また,11m-jp-eval による評価例から $1 \mathrm{~lm}$-jp-eval の評価スコアと大規模言語モデルに対する既存の知見を比較し,その結果を議論した。
英語を対象にした評価ベンチマークに比べると, $11 \mathrm{~m}$-jp-eval 含め, 日本語の評価ベンチマーク構築はまだ先が長い. まず足りないものとして,評価デー タセットの数と種類がある. Chang ら [12] は大規模言語モデルが評価されるべき能力として,伝統的な自然言語処理のタスクはもちろん,社会バイアスや毒性表現などに関わる倫理・信頼性, 医療や応用夕スクに関わるドメイン特化能力, 理工学・社会科学のように実世界を理解する能力などをあげている. また,これらの能力を測るべく発表されている評価データセットも数多く報告している. しかし, 日本語の評価データセットはまだ英語圈に比べて提案されているものが少なく, 既存の評価データセットを束ねて評価ベンチマークとする動きも少ない。そのため,新たなデータセットの開発,英語圏の評価データセットの翻訳,多数の評価データセットを取り込む評価ベンチマークの提案などを,日本語の大規模言語モデルの評価に対する今後の課題にしたい.
19)例えば前述した Nejumi リーダーボード Neo では llm-jpeval も有効活用し, 対応する日本語の評価データセットを増やしている.
## 謝辞
本研究の成果の一部は,データ活用社会創成プラットフォーム $\mathrm{mdx}$ を利用して得られたものです.
## 参考文献
[1] BIG bench authors. Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. Transactions on Machine Learning Research, 2023.
[2] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 2957-2966, Marseille, France, June 2022. European Language Resources Association.
[3] Tomoki Sugimoto, Yasumasa Onoe, and Hitomi Yanaka. Jamp: Controlled Japanese temporal inference dataset for evaluating generalization capacity of language models. In Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 4: Student Research Workshop), pp. 57-68, Toronto, Canada, July 2023. Association for Computational Linguistics.
[4] Hitomi Yanaka and Koji Mineshima. Assessing the generalization capacity of pre-trained language models through Japanese adversarial natural language inference. In Proceedings of the 2021 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (BlackboxNLP2021), 2021
[5] 川添愛, 田中リベカ, 峯島宏次, 戸次大介. 形式意味論に基づく含意関係テストセット構築の方法論. 人工知能学会全国大会論文集第 29 回 (2015), pp. 1K31-1K31. 一般社団法人人工知能学会, 2015.
[6] Hitomi Yanaka and Koji Mineshima. Compositional evaluation on Japanese textual entailment and similarity. Transactions of the Association for Computational Linguistics, Vol. 10, pp. 1266-1284, 2022.
[7] 石井愛, 井之上直也, 関根聡. 根拠を説明可能な質問応答システムのための日本語マルチホップ $\mathrm{QA}$ データセット構築.言語処理学会第 29 回年次大会論文集, 2023.
[8] 関根聡. 百科事典を対象とした質問応答システムの開発. 言語処理学会第 9 回年次大会, 2003.
[9] Takahiro Kubo and Hiroki Nakayama. chABSA: Aspect based sentiment analysis dataset in Japanese, 2018. https://github.com/chakki-works/chABSA-dataset/blob/ master/doc/chabsa-aspect-based.pdf.
[10] 萩行正嗣, 河原大輔, 黒橋禎夫. 多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析. 自然言語処理, Vol. 21, No. 2, pp. 213-247, 2014.
[11] 堀尾海斗, 村田栄樹, 王昊, 井手竜也, 河原大輔, 天, 新里顕大,中町礼文, 李聖哲, 佐藤敏紀. 日本語における chain-of-thought プロンプトの検証. 人工知能学会全国大会論文集, Vol. JSAI2023, pp. 3T1GS602-3T1GS602, 2023.
[12] Yupeng Chang, Xu Wang, Jindong Wang, Yuan Wu, Kaijie Zhu, Hao Chen, Linyi Yang, Xiaoyuan Yi, Cunxiang Wang, Yidong Wang, Wei Ye, Yue Zhang, Yi Chang, Philip S. Yu, Qiang Yang, and Xing Xie. A survey on evaluation of large language models. arXiv preprint arXiv:2307.03109, 2023.
[13] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. 2019. In the Proceedings of ICLR.
[14] 趙天雨, 沢田慶. 日本語自然言語処理における事前学習モデルの公開. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 169-170, 2021.
[15] Akira Sasaki, Masato Hirakawa, Shintaro Horie, and Tomoaki Nakamura. ELYZA-japanese-Llama-2-7b, 2023.
[16] Meng Lee, Fujiki Nakamura, Makoto Shing, Paul McCann, Takuya Akiba, and Naoki Orii. Japanese StableLM Base Alpha 7B.
[17] Preferred Networks, Inc. PLaMo-13B, 2023.
[18] 藤井一喜, 中村泰士, Mengsay Loem, 飯田大貴, 大井聖也, 服部翔, 平井翔太, 水木栄, 横田理央, 岡崎直観. 継続事前学習による日本語に強い大規模言語モデルの構築. 言語処理学会第 30 回年次大会 (NLP2024), March 2024
[19] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセットの構築. 言語処理学会第 26 回年次大会, pp. 237-240, 2020.
[20] ByungHoon So, Kyuhong Byun, Kyungwon Kang, and Seongjin Cho. JaQuAD: Japanese Question Answering Dataset for Machine Reading Comprehension, 2022
[21] Taiga Someya and Yohei Oseki. JBLiMP: Japanese benchmark of linguistic minimal pairs. In Andreas Vlachos and Isabelle Augenstein, editors, Findings of the Association for Computational Linguistics: EACL 2023, pp. 1581-1594, Dubrovnik, Croatia, May 2023. Association for Computational Linguistics.
[22] Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, Matthias Plappert, Jerry Tworek, Jacob Hilton, Reiichiro Nakano, Christopher Hesse, and John Schulman. Training verifiers to solve math word problems. arXiv preprint arXiv:2110.14168, 2021.
[23] Claire Cardie Faisal Ladhak, Esin Durmus and Kathleen McKeown. Wikilingua: A new benchmark dataset for multilingual abstractive summarization. In Findings of EMNLP, 2020, 2020.
[24] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-sum: Large-scale multilingual abstractive summarization for 44 languages. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4693-4703, Online, August 2021. Association for Computational Linguistics.
[25] Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng-Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff, and Colin Raffel. Crosslingual generalization through multitask finetuning, 2022.
[26] Lianmin Zheng, Wei-Lin Chiang, Ying Sheng, Siyuan Zhuang, Zhanghao Wu, Yonghao Zhuang, Zi Lin, Zhuohan Li, Dacheng Li, Eric Xing, et al. Judging LLM-as-a-judge with MT-Bench and Chatbot Arena. arXiv preprint arXiv:2306.05685, 2023.
[27] Rohan Taori, Ishaan Gulrajani, Tianyi Zhang, Yann Dubois, Xuechen Li, Carlos Guestrin, Percy Liang, and Tatsunori B. Hashimoto. Stanford Alpaca: An instruction-following LLaMA model. https://github.com/tatsu-lab/stanford_alpaca, 2023.
[28] Lukas Biewald. Experiment tracking with weights and biases, 2020. Software available from wandb.com. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-3.pdf | # 日本語小説の発話者分類における 大規模言語モデルおよび規則の評価
古俣槙山 ${ }^{1}$ 銭本友樹 ${ }^{1}$ 宇津呂武仁 ${ }^{1}$
1 筑波大学大学院 システム情報工学研究群
知能機能システム学位プログラム
## 概要
小説中の発話文の発話者がどの登場人物かを分類する発話者分類タスクは小説や登場人物の分析において重要なタスクである。本論文では大規模言語モデル・規則に基づく手法・BERTをこの発話者分類タスクに適用した際の性能を『現代日本語書き言葉均衡コーパス』とウェブ小説の話者情報アノテー ションデータを用いて評価する。この結果,大規模言語モデルの正答率は他手法より優れた値,あるいは同等の高い値となり,発話者分類における大規模言語モデルの利用が効果的であることを示した。
## 1 はじめに
大規模言語モデルの発展により,自然な応答をする対話システムや,小説生成システムが提案されている。これらでは,キャラクターや対話システムの個性を制御するが,その個性の評価や分析には,実際に特定のキャラクターの言動を収集する必要があ了. 文献 [1] と文献 [2]では,キャラクターの特徴分析と対話システムの構築のために,大人数の協力や特定キャラクターの発言を投稿する Botを利用し,特定のキャラクターの発言を大量に収集している。 しかし人手や Botによる収集は,コストが大きく,収集できるキャラクターの種類にも限界がある。そこで,小説中の発話文の発話者を特定するタスクを解くことで,様々なキャラクターの発言を自動的に大量に収集することが可能となり,より多様なキャラクターの特性と行動の詳細な分析が可能になる。
発話者分類タスクは,図 1 亿示すように,1)小説本文から発話を表す文章を抽出する「発話文抽出」, 2) 発話文に対して,その周囲の地の文から,その発話文の発話者を表すキャラクター・メンションを割り当てる「発話文とキャラクター・メンションの対応付け」,3) 抽出したキャラクター・メンションの
うち,同一のキャラクター・エンティティを指すものをクラスタリングする「同一人物へのキャラクター・メンションのクラスタリング」,という三つのタスクから構成されている.英語小説に対する研究では, Muzny ら [3] は複数のルールを利用して,上に示した三つのタスクすべてを行う発話者分類システムを提案した。また, Cuesta-Lazaro ら [4] は,深層学習を用いた初めての発話者分類システムを提案し,既存のルールベース手法よりも高精度な発話者分類結果を示した。
本論文では,大規模言語モデルには複雑なタスクを解く能力が確認されていることから,この大規模言語モデルの発話者分類への適用を試みる。まず,日本語小説に対して,「発話文とキャラクター・メンションの対応付け」と「同一人物へのキャラクター・メンションのクラスタリング」を規則に基づいて行う手法を示し,これをべースラインとする。次に,「発話文とキャラクター・メンションの対応付け」に対して,大規模言語モデルと BERTを適用し,規則に基づく手法との比較を行う.
## 2 関連研究
日本語小説を対象とした発話者分類の先行研究には,地の文を利用した研究 [5][6] と口調を利用した研究 $[7,8][6]$ が存在する. 文献 [5] では,青空文庫の小説 4 編を対象として,地の文を利用したパター ンマッチによる発話者抽出を試みている。この手法では 0.72 という高い正答率で発話者を抽出できているが,評価に利用した発話文の数は 161 文と少なく,同一人物を指す発話者のクラスタリングは行っていない。文献 [7] と文献 [8] の研究では,ライトノベル中の発話文を対象として,口調の類似性を利用した発話者分類を試みている。しかしこれらの手法は,分類先となる発話者の口調が事前情報として必要であり,任意の発話者への分類には対応していな
図 1 発話者分類の全体像 (本論文では,「地の文」は小説本文中の発話文以外の文章を指す。また,「キャラクター・メンション」は固有名詞(「田中太郎」や「田中」) や代名詞(「彼」や「私」),あるいは「先生」等の役割語といった,地の文中でキャラクターを指し示す表現のことである.加えて,「キャラクター・エンティティ」はキャラクターの実体のことであり,同一人物に対する「田中太郎」,「田中先生」,「先生」,「彼」といったキャラクター・メンションは,「田中太郎先生」という単一の実体である「キャラクター・エンティティ」を指す。)
い.また,文献 [6] の研究では,地の文を利用したパターンマッチや一人称,口調の類似性を併用した発話者分類を行っているが,地の文において発話動詞の存在を仮定するなど,用いられているパターンが本論文で利用する規則に基づく手法の一部に留まっている.
## 3 規則に基づく発話者分類
## 3.1 データセット
『現代日本語書き言葉均衡コーパス』(BCCWJ) [9] の大規模な公開話者情報アノテーションデータセットを利用する.このデータセットには,1986 年から 2005 年に刊行された計 2,845 個の小説と, 167,917 文の発話者がアノテーションされた発話文が含まれている.これら 2,845 小説のうち,60\%を訓練データ, $20 \%$ を検証データ,20\%をテストデータとし,評価にはテストデータを用いる.
## 3.2 発話者抽出
## 3.2.1 人名抽出・動詞判定
人名抽出では, GiNZA の固有表現抽出器と, 日本語 WordNet [10] から作成した人名単語辞書を用いて,地の文から人名を抽出する.また,この抽出した人名の掛かり先である動詞が発話を意味する場合,その人名は発話者である可能性が高い。そこで,日本語 WordNet [10] から発話動詞辞書を作成し,この辞書中の動詞を発話動詞と判定し,他の全ての動詞を非発話動詞と判定する.
## 3.2.2 発話文とキャラクター・メンションの対応付け
事前分析から,キャラクター・メンションの多くが地の文の主格か主辞として文に存在することがわかった。そこで本論文では図 1 に示すような 3 種類の発話者タイプを定義する。
## 発話動詞の主格位置でのキャラクター・メンション
地の文中の発話動詞の主格が人名である場合に,その人名をキャラクター・メンションとして抽出する。
非発話動詞の主格位置でのキャラクター・メンション地の文中の非発話動詞の主格が人名である場合に,その人名をキャラクター・メンションとして抽出する。
## 文主辞位置でのキャラクター・メンション
地の文の主辞が人名である場合に,その人名をキャラクター・メンションとして抽出する.
特定の発話文の周囲には複数の地の文が存在し,その地の文それぞれでキャラクター・メンションが存在する場合は以下の二つの手続きを順に適用する。
(P1) 各発話文の前後 1 文までの地の文中に存在するキャラクター・メンションを検出する.その範囲に複数のキャラクター・メンションが存在する場合は,そのキャラクター・メンションと発話文の相対位置に着目し,発話文を含む地の文,発話文の後ろの地の文,発話文の前の地の文という優先順位でキャラクター・メンションを抽出する。
(P2) 手続き $(\mathrm{P} 1$ ) において,二つの発話文で同一の
キャラクター・メンションが抽出された場合, そのキャラクター・メンションを両方の発話文に対応させる.
続いて, 手続き $(\mathrm{P} 1)$ 及び手続き $(\mathrm{P} 2)$ 後にキャラクター・メンションが対応付けされなかった発話文を対象として,以下の二つの手続きを適用する。
## 話者交代制約
連続した発話文において, $n$ 番目の発話の発話者が不明で, $(n \pm 2)$ 番目の発話の発話者が判明している場合, $(n \pm 2)$ 番目の発話者を $n$ 番目の発話者とする. 本論文では,連続した発話文を,発話文間に地の文が存在しない発話文の集合とする.
## 発話者としての頻度が最大となる人名の適用
上記手続きで対応付けられなかった発話文は,当該小説内で対応付けられた頻度が最も大きい人名を対応付ける。
以上の手順による発話者抽出手法を「規則に基づく標準手法」とする. この手法の手順を変形した発話者抽出手法については $\mathrm{A}$ 節に記載する.
## 3.3 同一人物へのキャラクター・メンショ ンのクラスタリング
最後に,3.2.1 節で抽出した人名のうち,「固有名詞」か「役割語 (先生・将軍など)」が一致した人名は同一人物を指しているとしてクラスタリングする. 例えば,「田中先生 $\lrcorner$ 「先生」,「田中太郎さん」,「ミスター太郎」という四つの人名が抽出された場合は,それぞれ共通部分を持つため,全て同一人物として分類される.
## 4 大規模言語モデルによる発話者分類
次に,「発話文とキャラクター・メンションの対応付け」タスクに対して, 大規模言語モデルを適用する. 大規模言語モデルとしては, OpenAI 社が提供する ChatGPT ${ }^{1)}$ モデルである GPT-3.52) および GPT-43)を利用する. 大規模言語モデルと規則に基づく手法の比較評価を行うために,ウェブ上に公開されている小説「ずたぼろ令嬢は姉の元婚約者に溺愛される」4) の第 1 話から第 97 話の小説本文に,発話文の発話者情報を付与したデータセット (以下
ウェブ小説データセットとする)を利用する ${ }^{5)}$ , B. 2 節の手順に従い,このデータセットにおける参照発話者の出現位置の統計を求めた結果においては, 前後 1 文の主格・文主辞位置に参照発話者が存在する発話文が $929(23.3 \%)$ 個,その位置以外に参照発話者が存在する発話文が $3,064(76.7 \%)$ 個となった.このうち, 前後 1 文の主格・文主辞位置以外に参照発話者が存在する 7 割以上の発話文に対しては,規則に基づく手法では,「話者交代制約」や「発話者としての頻度が最大となる人名の適用」でしか対応付けを行えない. しかし,この対応付けは発話文の前後の地の文からキャラクター・メンションを抽出する対応付けよりも,B. 2 節に示す,発話者分類性能の評価指標である人名一致正答率が低くなる点が課題である.
これに対して,大規模言語モデルによる発話者対応付けの場合には,前後 1 文の主格・文主辞位置以外に参照発話者が存在する 7 割以上の発話文の場合でも,適切な対応付けが行えることが期待できる.
一例として,図 2 の例の場合には,規則に基づく手法では適切な発話者対応付けが行えないのに対して, ChatGPT モデルを適用した場合には適切な発話者対応付けを行うことができる.図 2 においては,参照発話者である「ジュニア」が発話文の後ろの 2 文目に含まれている.ここで,規則に基づく手法では,誤った発話者「私」を発話文に対応付ける6)のに対して,大規模言語モデルでは,参照発話者である「ジュニア」を発話文に対応付ける.このように,大規模言語モデルを利用することによって,規則に基づく手法を上回る性能を達成できることが期待できると考えられる.
実験では,大規模言語モデルがキャラクター・メンションを抽出する範囲を,前後 8 文とした場合・前後 1 文とした場合についてそれぞれ発話者分類性能を調べる.この各条件でモデルが抽出したキャラクター・メンションを 3.3 節に示した手法でクラスタリングし,性能を評価する。
5)利用規約に反するため,BCCWJ は ChatGPT の性能分析に利用できない.
6)規則に基づく手法では,3.2.2 節で示す手法に従い,まず発話文の前後 1 文を参照する. この時,発話文の後ろには 「メランダとは、私の呼び名だ。」という地の文が存在するが,この文からはキャラクター・メンションを抽出できない. 次に「話者交代制約」による発話者の対応付け処理を行うが,この例では前後に他の発話文が無いため,発話者の対応付けができない. 最後に,「発話者としての頻度が最大となる人名の適用」によって,発話者として「私」が対応付けられるが,この対応付けは誤りである。
表 1 BCCWJ テストデータ・ウェブ小説データセットに対する各モデルの人名一致正答率
& $\mathbf{4 5 . 3}\left(\frac{15,091}{33,336}\right)$ & $86.3\left(\frac{10,343}{11,978}\right)$ & $72.7\left(\frac{11,200}{15,396}\right)$ & $45.5\left(\frac{1,815}{3,993}\right)$ & $91.2\left(\frac{847}{929}\right)$ & $73.4\left(\frac{1,179}{1,606}\right)$ \\
図 2 規則に基づく標準手法と大規模言語モデルの比較
## 5 BERT モデルによる発話者分類
最後に「発話文とキャラクター・メンションとの対応付け」タスクに BERT [11]を適用し,大規模言語モデル・規則に基づく手法との比較を行う.この比較にあたり,事前学習済モデルである東北大版 BERT $^{7)}$ を利用する. BERT の訓練には 3.1 節に述べた BCCWJ の訓練・検証データを使用する.発話文の前後 2 文に対してキャラクター・メンションの抽出を行い,4節と同様にキャラクター・メンションをクラスタリングし,発話者分類性能を評価する。
## 6 評価
表 1 に BCCWJテストデータ・ウェブ小説データセットに対する大規模言語モデル・規則に基づく手法・BERTによる発話者分類の評価結果を示す. 評価基準には B. 2 節に示した人名一致正答率を用いる. 表 1 について規則に基づく手法と BERTを比較
7) https://huggingface.co/cl-tohoku/
bert-base-japanese-v3
すると,BCCWJ・ウェブ小説データセットのどちらにおいても,規則に基づく手法が BERT より優れていることが分かる. 次に, ウェブ小説データセットでは,人名一致正答率 $(\mathrm{A})$ ,人名一致正答率 $(\mathrm{C})$ では GPT-4 が最も高い值であるのに対して,人名一致正答率 (B) では規則に基づく手法が最も高い値であることが分かる. この原因として,規則に基づく手法は,キャラクター・メンションを抽出できなかった発話文に対して,「話者交代制約」と「発話者としての頻度が最大となる人名の適用」によって適切な人名を対応付けられる場合があることが挙げられる。一方で,同様の場合でも,大規模言語モデルによる発話者分類ではそうした対応付けを行っていないため,適切な人名を対応付けられない。したがって, GPT-4 の結果に対して同様の処理を追加することで,人名一致正答率 (B) においても規則に基づく手法に劣らない発話者分類を行えると考えられる8).
## 7 おわりに
本論文では,日本語小説に対して,大規模言語モデル・規則に基づく手法・BERT による発話者分類の性能評価を行った. この結果,大規模言語モデルの正答率は他手法より優れた値,あるいは同等の高い値となり,発話者分類における大規模言語モデルの利用が効果的であることを示した.
8)人名一致正答率 (B) の範囲で,GPT-4 (前後 1 文) は 10 個の発話文に対して「不明」という結果を出力した. この 10 個の発話文に対して,人手で「話者交代制約」と「発話者としての頻度が最大となる人名の適用」によって人名を対応付けた結果, 8 件の発話文に適切な人名が対応付けられた。この結果,GPT-4 (前後 1 文) の人名一致正答率 (B) は $93.9 \%$ となり,規則に基づく手法と同等の正答率となった.
## 参考文献
[1] C. Miyazaki, T. Hirano, R. Higashinaka, and Y. Matsuo. Towards an entertaining natural language generation system: Linguistic peculiarities of Japanese fictional characters. In Proc. 18th SIGDIAL, pp. 319-328, 2016.
[2] R. Ishii, R. Higashinaka, K. Mitsuda, T. Katayama, M. Mizukami, J. Tomita, H. Kawabata, E. Yamaguchi, N. Adachi, and Y. Aono. Methods for efficiently constructing text-dialogue-agent system using existing anime characters. Journal of Information Processing, Vol. 29, pp. 30-44, 2021 .
[3] G. Muzny, M. Fang, A. Chang, and D. Jurafsky. A twostage sieve approach for quote attribution. In Proc. 15th EACL, pp. 460-470, 2017.
[4] C. Cuesta-Lazaro, A. Prasad, and T. Wood. What does the sea say to the shore? a BERT based DST style approach for speaker to dialogue attribution in novels. In Proc. 60th ACL, pp. 5820-5829, 2022.
[5] D. Yulong, 白井清昭. 小説からの自由対話コーパスの自動構築. 言語処理学会第 25 回年次大会発表論文集, pp. 623-626, 2019.
[6] 石川和樹, 佐藤理史, 宮田玲, 小川浩平. 複数の手がかりを利用した小説発話の話者推定. 言語処理学会第 29 回年次大会発表論文集, pp. 2170-2175, 2023.
[7] 石川和樹, 宮田玲, 小川浩平, 佐藤理史. 口調ベクトルを用いた小説発話の話者推定. 情報処理学会研究報告, Vol. 2022-NL-253, No. 14, pp. 1-8, 2022.
[8] Yuki Zenimoto and Takehito Utsuro. Speaker identification of quotes in Japanese novels based on gender classification model by BERT. In Proc. 36th PACLIC, 2022.
[9] K. Maekawa, M. Yamazaki, T. Ogiso, T. Maruyama, H. Ogura, W. Kashino, H. Koiso, M. Yamaguchi, M. Tanaka, and Y. Den. Balanced corpus of contemporary written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 2014.
[10] F. Bond, H. Isahara, S. Fujita, K. Uchimoto, T. Kuribayashi, and K. Kanzaki. Enhancing the Japanese WordNet. In Proc. 7th ALR, pp. 1-8, 2009.
[11] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. 14th NAACL-HLT, pp. 4171-4186, 2019
[12] E. Amigó, J. Gonzalo, J. Artiles, and F. Verdejo. A comparison of extrinsic clustering evaluation metrics based on formal constraints. Information retrieval, Vol. 12, pp. 461-486, 2009.
## A 「規則に基づく標準手法」および その変形版の説明
3.2.2 節に述べた手法 (規則に基づく標準手法) に対して,以下の点を変形することで手法の変形版が得られる.
(1)発話・非発話動詞の主格位置・文主辞位置のキャラクター・メンションをどの優先順序で抽出するか.
(2)発話文を含む地の文・発話文の後ろの地の文・発話文の前の地の文に存在するキャラクター・メンションをどの順序で抽出するか.
(3)一つのキャラクター・メンションに,一つの発話文のみを対応付けるか,または複数の発話文を対応付ける例を受け入れるか.
これらの点の変形版について以下に示す.
## A. 1 規則に基づく標準手法
この手法は 3.2.2 節に述べた手法に従ってキャラクター・メンションと発話文の対応付けを行う。この時,上に示した変更可能な点を以下のように設定している.
(1)優先順序を付けずに抽出する.
(2)発話文を含む地の文,発話文の後ろの地の文,発話文の前の地の文,の優先順序で抽出する。
(3)一つのキャラクター・メンションに複数の発話文を対応付ける例を受け入れる。
## A. 2 発話動詞の主格キャラクター・メン ション優先
この手法は,「規則に基づく標準手法」の設定のうち (1)を変更し,発話動詞の主格位置,非発話動詞の主格位置, 文主辞位置,の順でキャラクター・メンションを抽出する。
## A. 3 発話文の前の地の文中のキャラク ター・メンション優先
この手法は,「規則に基づく標準手法」の設定のうち (2) を変更し,発話文を含む地の文,発話文の前の地の文,発話文の後ろの地の文,の順にキャラクター・メンションを抽出する。
## A. 4 キャラクター・メンションと発話文 を 1 対 1 対応
この手法は,「規則に基づく標準手法」の設定のうち (3) を変更し,一つのキャラクター・メンションに一つの発話文のみを対応付ける。
## B 規則に基づく手法の評価手順
発話者分類はテストデータを対象として行い,クラスタリング評価と人名一致正答率の 2 種類の評価を行う.
## B. 1 クラスタリングの評価手順
3.3 節における同一人物へのキャラクター・メンションのクラスタリング結果に対して,まず,一つの人名のクラスタを $N$ ,人名のクラスタの集合を $\mathbb{N}$ と表記する。そして,発話者が $N$ 内の人名と予測された発話文の集合を予測クラスタ $P$ とする. この処理を $\mathbb{N}$ 全体に適用し,得られた予測クラスタ $P$ の集合を $\mathbb{P}$ と表記する. 同様に, アノテーションデータから得られた参照クラスタ集合を $\mathbb{R}$ とし, $\mathbb{R}$ 中の一つのクラスタを $R$ と表記する. ここで,本論文では,評価指標として,Cuesta-Lazaro ら [4] と同様に $B^{3}$ の適合率,再現率,F1 值 [12] を用いる。 $B^{3}$ では,発話文一つ一つに対して以下の二つの指標を計算する.
1. 適合率: 一つの予測クラスタ $P$ 内の発話文のうち,参照クラスタ集合 $\mathbb{R}$ において発話者が同一であるとされている発話文の割合.
2. 再現率: 一つの参照クラスタ $R$ 内の発話文のうち,予測クラスタ集合 $\mathbb{P}$ において発話者が同一であると予測された発話文の割合.
そして,予測クラスタ集合 $\mathbb{P}$ および参照クラスタ集合 $\mathbb{R}$ の全体に対して発話文全体における適合率・再現率のミクロ平均を算出し,これをクラスタリングにおける適合率・再現率とする。
## B. 2 人名一致正答率の評価手順
BCCWJ では各発話文に対して一意の参照発話者名を与えている.そこで,予測発話者が正しく参照発話者を指す割合を評価するため,人名一致正答率という評価指標を定義する。人名一致正答率の算出においては,まず発話文の予測発話者と参照発話者との間で 3.3 節の手法を適用し,予測発話者と参照発話者が同一人物かどうかを判定する。そして,この同一人物判定を全ての発話文に対して行い,予測発話者と参照発話者が同一人物であると判定された発話文の割合を「人名一致正答率 $(\mathrm{A}) 」$ として評価する。ここで,テストデータ中の $21,358(64.1 \%)$ 個の発話文は,前後 1 文の主格・文主辞位置に参照発話者を指すキャラクター・メンションが存在しないため,規則に基づく手法によって前後 1 文の範囲からは参照発話者を対応付けることはできない. そこで,地の文を利用した規則に基づく手法の有効性を分析するため,それらの文以外の 11,978 (35.9\%) 個の発話文のみを対象とした場合について,予測発話者と参照発話者が同一人物であると判定された発話文の割合を「人名一致正答率 (B)」として評価する。また,前後 1 文の任意の位置に参照発話者を指すキャラクター・メンションが存在する発話文はテストデータ中に $15,396(46.2 \%)$ 個存在した.これらの発話文のみを対象とした場合について,予測発話者と参照発話者が同一人物であると判定された発話文の割合を「人名一致正答率 $(\mathrm{C})$ 」として評価する。
発話者分類の最終的な目標は,人名一致正答率を $100 \%$ にすることである. しかし,規則に基づく手法では,予測発話者が代名詞や愛称のときに正しく評価できないため,B. 1 節で述べたクラスタリングによる評価も行う. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-4.pdf | # ChatGPT as a Translation Engine: A Case Study on Japanese-English
Vincent Michael Sutanto ${ }^{1}$ Giovanni Gatti De Giacomo ${ }^{1}$ Toshiaki Nakazawa ${ }^{2}$ Masaru Yamada ${ }^{3}$
${ }^{1}$ Yaraku, Inc. ${ }^{2}$ The University of Tokyo ${ }^{3}$ Rikkyo University
\{vincent, giovanni\}@yaraku.com, nakazawa@nlab.ci.i.u-tokyo.ac.jp,
masaru.yamada@rikkyo.ac.jp
}
\begin{abstract}
This study investigates ChatGPT for Japanese-English translation, exploring simple and enhanced prompts and comparing against commercially available translation engines. Performing both automatic and MQM-based human evaluations, we found that document-level translation outperforms sentence-level translation for ChatGPT. On the other hand, we were not able to determine if enhanced prompts performed better than simple prompts in our experiments. We also discovered that ChatGPT-3.5 was preferred by automatic evaluation, but a tradeoff exists between accuracy (ChatGPT-3.5) and fluency (ChatGPT4). Lastly, ChatGPT yields competitive results against two widely-known translation systems.
\end{abstract
## 1 Introduction
Recently, ChatGPT has emerged as a versatile tool, finding applications in several domains due to its multifunctional capabilities. Beyond its extensive utility, ChatGPT extends its prowess to include translation tasks, showcasing its adaptability in bridging language barriers [1].
Interestingly, ChatGPT, as a machine translation tool, offers more than just standard translation; it can be further customized by "enhancing" the prompt, producing results that are preferred by professional translators [2]. This feature empowers users to curate translations that align more precisely with their intended domain, purpose and tone [2] [3].
However, a comprehensive investigation into the use of ChatGPT as an MT system is still required to unveil its applicability. Several questions remain unclear: does a general-purpose model like ChatGPT perform as well as specialized translation engines trained specifically for translation tasks? Is translating the entire document at once better than translating sentence by sentence? How do simple and enhanced prompting techniques affect the translation results? Is there any discernible difference between ChatGPT-3.5 and ChatGPT-4? Answering these types of questions will help us understand and provide valuable insights into ChatGPT's role in translation technology.
In this paper, we employed ChatGPT-3.5 and ChatGPT-4 APIs ${ }^{1)}$ to answer the previously mentioned research questions. Additionally, we evaluate the performance against the two most widely used commercial systems for JA-EN translation. Our investigation reveals the following:
1. ChatGPT makes better translations when it handles whole documents instead of sentence by sentence, likely due to better context awareness as a translation system.
2. We could not find conclusive evidence with our experiments that enhanced prompts lead to higher quality translations. However, this could be due to the smallscale of our human evaluation and the bias towards gold data in the automated evaluations. Therefore, we believe larger scale human evaluations are required to accurately assess the quality difference.
3. ChatGPT-3.5 emerged as the favored model compared to ChatGPT-4 in automatic evaluation, but human evaluation reveals that the end user can choose between accuracy (ChatGPT-3.5) or fluency (ChatGPT4).
4. For the JA-EN pair translation, both ChatGPT 3.5 and 4 performed competitively against two commercial MT systems, solidifying their position as viable translation system options.
Table 1 Simple Prompt for ChatGPT
Translate this document from $<$ src_language $>$ to $<t$ tgtlanguage>:
$<$ text $>$
Table 2 Enhanced Prompt for ChatGPT You are a translation engine. Perform the following steps carefully:
1. - Translate the following <src_language> document delimited by triple backticks to <tgt_language>
2. - The translation is expected to be in the field of $<$ field>.
3. - The expected output is expected to have <style> style.
4. - Change the translation tone into <tone>.
“،
$<$ text $>$
“،
After finishing those steps, return the final result only!
## 2 Methodology
## 2.1 Datasets
We used several publicly available JA-EN datasets for our experiments: ParaNatCom [4], FLORES [5], Novels [6], KFTT [7], and WMT News [8]. These datasets were handpicked to investigate translation quality on a variety of domains, lengths, and styles. Due to budget constraints for the API, we sampled five documents from each dataset for the automatic evaluation. Additional details about the datasets are provided in Appendix A.
## 2.2 Prompting
In this work, we investigated two prompting strategies: Simple and Enhanced prompts. The Simple prompt simply directs ChatGPT to translate text based on source and target languages (Table 1). On the other hand, the Enhanced prompt, motivated by [2], instructs ChatGPT to consider category, style, and tone as well as the source and target languages for a more customized output (Table 2).
With the help of professional translators, we assigned distinct categories, styles, and tones to each dataset, ensuring the translation output aligns with the specific characteristics of each dataset (Appendix B).
## 2.3 Automatic Evaluation
We computed three commonly used automatic evaluation metrics to measure overall translation quality: BLEU [9], COMET [10], and DA-BERT [11].
## 2.4 Human Evaluation
We also conducted a human evaluation to appraise machine translation quality using the Multidimensional Quality Metrics (MQM) framework ${ }^{2}$. The evaluation was conducted by two professional translators, both with background and experience in JA-EN translation. For the human evaluation, one sample from the document-level translation of each of the following datasets were used: ParaNatCom [4], Novels [6], and WMT News [8].
To facilitate the annotation process, we designed an evaluation tool for the MQM framework that we are open sourcing $^{3)}$. We hope that the tool will aid researchers and practitioners in conducting similar human evaluations for their machine translation studies. Finally, the tool also comes pre-configured with categories and weights selected by linguists for evaluating both Japanese and English sentences.
## 3 Results and Discussion
## 3.1 Document-Level vs. Sentence-Level Translation
From Table 3, we calculate percentages indicating when the document-level score exceeds the sentence-level score. This is done by counting where Doc is greater than the Sent column for each row and metric. Specifically, $60 \%$ favor document-level in BLEU, $100 \%$ in COMET, while DA-BERT dissents with only $15 \%$ preferring the document-level. Thus, our automatic evaluation indicates that document-level is better than sentence-level for ChatGPT. This could be attributed to the fact that documentlevel translation preserves context more effectively when compared to sentence-level translation (See Appendix C).
## 3.2 Simple vs. Enhanced Prompt
Similar to Subsection 3.1, we calculate the percentages where the enhanced prompt outperforms the simple prompt. However, as the results vary, we cannot make a direct conclusion. BLEU and COMET remain neutral at $50 \%$, while DA-BERT indicates that the enhanced prompt is better $(60 \%)$. We observe that enhanced prompts can cause the translation output to deviate from the gold data. This may lead to lower scores, even for more appropriate translations, simply because it differs from the reference.
Table 3 BLEU, COMET, and DA-BERT results per dataset (higher is better).
Table 4 MQM scores for each system (lower is better).
Additionally, even with the human evaluation scores we could not find conclusive evidence that enhanced prompts produce higher quality translations (See Table 4). This could be due to the small-scale of our human evaluation and the bias towards gold data in the automated evaluations. Therefore, we believe larger scale human evaluations are required to accurately answer the question of simple vs. enhanced prompts.
## 3.3 ChatGPT-3.5 vs. ChatGPT-4
Once again, we compute the percentages where ChatGPT-4 outperforms ChatGPT-3.5 for both document and sentence-level. In terms of automatic evaluation, we find that ChatGPT-4 is not superior to ChatGPT-3.5. Specifically, for document-level, COMET and DA-BERT preferred ChatGPT-3.5, at $30 \%$ and $40 \%$ respectively, while BLEU remained neutral at $50 \%$. Similarly, for sentence-level, BLEU preferred ChatGPT-4 at $80 \%$, while COMET and DA-BERT preferred ChatGPT-3.5, at $40 \%$ and $20 \%$ respectively.
For the human evaluation (Table 4), the overall MQM scores align with the findings in automatic evaluation: higher scores were observed for ChatGPT-4, suggesting that it is not superior to ChatGPT-3.5. Moreover ChatGPT3.5 is better in terms of accuracy, meaning that the translation is reflecting the source text better. Conversely, ChatGPT-4 offers better fluency, meaning that it could generate translations that feel more native and easier to understand. However, the decision of which one is better depends on the preferences of the end users. For tasks where conveying information without ambiguity is crucial,
Table 5 Average score of ChatGPT vs Commercial MT Systems
ChatGPT-3.5 might be more appropriate. On the other hand, for translations that include creative writing, e.g. advertisements, where a natural flow is essential, ChatGPT-4 may be the preferred choice.
## 3.4 Comparison to Commercial MT Systems
We averaged each metric across all datasets and organized it in Table 5. With document-level translation, we observe that all ChatGPT settings surpass System A's scores, while also performing on par or better than System B in COMET and DA-BERT. On the other hand, the BLEU scores show the reverse trend, with all ChatGPT settings performing worse than both commercial systems. At the sentence-level, we found similar trends to the ones observed at the document-level. With BLEU, ChatGPT performs worse than both System A and System B. Conversely, all variants of ChatGPT perform competitively against both commercial systems in COMET and DA-BERT.
Overall, ChatGPT shows impressive translation capabilities with two of the three evaluation metrics investigated, when compared to commercial translation engines. Additionally, this interpretation is also supported by the MQM scores (Table 4), where three of the four investigated ChatGPT settings perform better than System A and competitively against System B. Specifically, ChatGPT-3.5 achieved better accuracy scores than System B. In terms of fluency, all ChatGPT settings achieved scores within the range of the well-regarded translation engines. These are evidence that ChatGPT, with scores on par with commercial translation systems, can be used to generate translations that remain faithful to the source text.
Another important factor that we observed is that ChatGPT is slower than both commercial engines. We were able to mitigate this issue by using Azure's Japan East servers for ChatGPT, but it was still noticeably slower.
## 4 Conclusion
In our study comparing ChatGPT-3.5 and ChatGPT-4 for JA-EN translation, using simple and enhanced prompts, we uncovered key insights. Firstly, translating entire documents proved more effective than translating sentence by sentence, potentially due to enhanced contextual preservation. Secondly, the question of whether enhanced prompts are superior remains uncertain, as both automated and human evaluations provided inconclusive results. Thus, we leave it open for future researchers to answer this question through larger scale experiments. Thirdly, automatic and human evaluations indicated an overall preference for ChatGPT-3.5, but we also point out that the end user may want to tradeoff between accuracy (ChatGPT-3.5) and fluency (ChatGPT-4). Finally, in JA-EN translation, all investigated ChatGPT settings proved to be strong competitors against two commercial MT systems in both automatic and human assessments.
## References
[1] Tom Kocmi, Eleftherios Avramidis, Rachel Bawden, Ondřej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Markus Freitag, Thamme Gowda, Roman Grundkiewicz, Barry Haddow, Philipp Koehn, Benjamin Marie, Christof Monz, Makoto Morishita, Kenton Murray, Makoto Nagata, Toshiaki Nakazawa, Martin Popel, Maja Popović, and Mariya Shmatova. Findings of the 2023 conference on machine translation (WMT23): LLMs are here but not quite there yet. In Philipp Koehn, Barry Haddow, Tom Kocmi, and Christof Monz, editors, Proceedings of the Eighth Conference on Machine Translation, pp. 1-42, Singapore, December 2023. Association for Computational Linguistics.
[2] Masaru Yamada. Optimizing machine translation through prompt engineering: An investigation into chatgpt's customizability. Proceedings of Machine Translation Summit XIX Vol. 2: Users Track, pp. 195-204, 92023.
[3] Keqin Peng, Liang Ding, Qihuang Zhong, Li Shen, Xuebo Liu, Min Zhang, Yuanxin Ouyang, and Dacheng Tao. Towards making the most of ChatGPT for machine translation. In Houda Bouamor, Juan Pino, and Kalika Bali, editors, Findings of the Association for Computational Linguistics: EMNLP 2023, pp. 5622-5633, Singapore, December 2023. Association for Computational Linguistics.
[4] Masao Utiyama. Paranatcom - parallel englishjapanese abstract corpus made from nature communications articles. https://www2.nict.go.jp/astrecatt/member/mutiyama/paranatcom/, 2019.
[5] James Cross Onur Çelebi Maha Elbayad Kenneth Heafield Kevin Heffernan Elahe Kalbassi Janice Lam Daniel Licht Jean Maillard Anna Sun Skyler Wang Guillaume Wenzek Al Youngblood Bapi Akula Loic Barrault Gabriel Mejia Gonzalez Prangthip Hansanti John Hoffman Semarley Jarrett Kaushik Ram Sadagopan Dirk Rowe Shannon Spruit Chau Tran Pierre Andrews Necip Fazil Ayan Shruti Bhosale Sergey Edunov Angela Fan Cynthia Gao Vedanuj Goswami Francisco Guzmán Philipp Koehn Alexandre Mourachko Christophe Ropers Safiyyah Saleem Holger Schwenk Jeff Wang NLLB Team, Marta R. Costa-jussà. No language left behind: Scaling human-centered machine translation. 2022.
[6] Masao Utiyama and Mayumi Takahashi. English-japanese translation alignment data. https://www2.nict.go.jp/astrecatt/member/mutiyama/align/download/index.html, 2003.
[7] Graham Neubig. The Kyoto free translation task. http://www.phontron.com/kftt, 2011.
[8] Jörg Tiedemann. Parallel data, tools and interfaces in OPUS. In Nicoletta Calzolari, Khalid Choukri, Thierry Declerck, Mehmet Uğur Doğan, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Eighth International Conference on Language Resources and Evaluation (LREC'12), pp. 2214-2218, Istanbul, Turkey, May 2012. European Language Resources Association (ELRA).
[9] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-
Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Pierre Isabelle, Eugene Charniak, and Dekang Lin, editors, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[10] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics.
[11] Runzhe Zhan, Xuebo Liu, Derek F. Wong, and Lidia S. Chao. Difficulty-aware machine translation evaluation. In Chengqing Zong, Fei Xia, Wenjie Li, and Roberto Navigli, editors, Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 26-32, Online, August 2021. Association for Computational Linguistics.
## A Datasets
Table 6 Description of Datasets
& \\
FLORES & EN $\rightarrow$ JA & Article & 600.6 & 5.0 \\
Novels & EN $\rightarrow$ JA & Novels & 1640.6 & 16.2 \\
KFTT & $\mathrm{JA} \rightarrow$ EN & History & 742.6 & 15.0 \\
WMT News & $\mathrm{JA} \rightarrow$ EN & News & 375.0 & 7.0 \\
## B Enhanced Prompts: Categories, Styles, and Tones
For categories and its style mapping, the options are as follows:
1. finance, economy, judicial affairs: contracts, prospectus, financial reports, research reports, articles of incorporation, certified copies, business letters, press releases.
2. medicine: application documents (CTD), package inserts, medical records, regulatory guidelines, academic papers, literature.
3. industry, science technology: instruction manuals, catalogs, brochures, design documents, drawings, proposals, regulations, academic papers, literature.
4. patent, intellectual properties: application documents (specifications), gazettes, prosecution, IDS (Information Disclosure Statement).
5. other: catalogs, brochures, operations manuals, guidebooks, article, manga, novel.
For tones, the options are as follows: spoken formal, spoken casual, written formal, written casual, plain tone (da \& de aru), and polite tone (desu \& masu).
## C Translation Samples
We sampled one source sentence from WMT News, the corresponding gold translation, and the translation outputs of all ChatGPT settings and of the two commercial translation systems for both document and sentence-level.
Source Text: ラーメンとたいめしのおむすびを試食し「タイのだしがよく効いている。おいしい」と太鼓判を押した。
Gold: He sampled the ramen and rice balls and said, "You can taste the sea bream soup stock and it's delicious." giving it a thumbs up.
## Document-level Translation:
- ChatGPT-3.5 Simple: He praised the ramen and rice ball with sea bream, saying, "The Thai broth is well flavored. It's delicious."
- ChatGPT-4 Simple: After sampling the ramen and Taimeshi onigiri, he added, "The Thai broth is very effective. It's delicious," giving it a stamp of approval.
- ChatGPT-3.5 Enhanced: He praised the taste of the ramen and taimeshi rice ball after trying them, stating, "The Thai broth is well accentuated. It's delicious."
- ChatGPT-4 Enhanced: After a taste test of the ramen and tai-meshi onigiri, he heartily approved, stating: "The snapper soup really comes through. Tastes great!" The new products will also be available at stores in neighbouring Aichi and Gifu prefectures.
- System A: Tasting the ramen and taimeshi rice balls, he said, "The Thai dashi (soup stock) is very effective. They are delicious.
- System B: He sampled the ramen and taimeshi rice balls and praised them, saying, "The Thai soup stock works well.It's delicious."
## Sentence-level Translation:
- ChatGPT-3.5 Simple: I tasted ramen and an onigiri with sea bream and praised it, saying, "The Thai broth is very flavorful. It's delicious."
- ChatGPT-4 Simple: They sampled the ramen and rice balls with sea bream and affirmed, "The Thai broth is very well done. It's delicious."
- ChatGPT-3.5 Enhanced: I tried tasting ramen and tai meshi onigiri and gave it my stamp of approval, saying "The Thai broth is really effective. Delicious!"
- ChatGPT-4 Enhanced: I taste-tested Ramen and Tai-meshi rice balls, and I gotta say, the Thai flavors are really coming through. It's super tasty, big thumbs up from me!
- System A: After tasting the ramen and taimeshi rice balls, the chef gave his stamp of approval, saying, "The Thai dashi (soup stock) is very effective and delicious.
- System B: He sampled the ramen and taimeshi rice balls and praised them, saying, "The Thai soup stock works well.It's delicious." | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-5.pdf | # 継続事前学習による日本語に強い大規模言語モデルの構築
藤井一喜 ${ }^{1}$ 中村 泰士 ${ }^{1}$ Mengsay Loem ${ }^{1}$ 飯田 大貴 ${ }^{1,2}$ 大井 聖也 ${ }^{1}$
服部 翔 ${ }^{1}$ 平井 翔太 ${ }^{1}$ 水木 栄 ${ }^{1,3}$ 横田 理央 ${ }^{1}$ 岡崎 直観 1
1 東京工業大学情報理工学院 ${ }^{2}$ 株式会社レトリバ ${ }^{3}$ 株式会社ホットリンク
## 概要
本研究では,Llama 2 をべースに日本語の大規模ウェブコーパスで継続事前学習を行い,日本語能力を強化した大規模言語モデル Swallowを構築した.実験から,7B, 13B, 70B のいずれのモデル規模においても,継続事前学習が大規模言語モデルの日本語能力を引き上げ,高い性能を達成することが分かった.また,継続事前学習の学習データ量の増加に伴い,日本語の性能が向上すること(学習のスケール性)を確認した。構築したSwallow モデルを公開し, コミュニティでの後続研究・活用を期待している.
## 1 はじめに
OpenAI の ChatGPT や Google の Bard などの大規模言語モデル(LLM)は,人間に近い言語理解能力と生成能力,さまざまな分野への適用可能性を示し,大きな注目を集めた.日本でもLLM 開発の機運が高まり,2023 年は日本語に強い LLM(以降,日本語の LLM と呼ぶ)の開発・発表が盛んに行われた. ところが, 日本語の LLM 開発において日本語以外の言語資源,特に英語の言語資源の活用について,未だ知見が少ないのが現状である.
英語は事実上の世界共通言語であることから,世の中に存在する言語資源の中で英語の割合が突出している. Common Crawl が発表している統計情報によると, 英語のウェブページは日本語のウェブペー ジの約 9 倍の量であると推定される ${ }^{11}$ 。また,論文の採択・引用されやすさ等の理由も加わり,良質な注釈付きコーパスやデータセットは英語をターゲットとして開発されやすい傾向がある. このため, 日本語を含む多くの非英語言語では,高品質なコーパスやデータセットが不足しがちである.
英語の言語資源を活用した日本語の LLM 構築に関する知見を得るには,日本語と英語の言語データ
でLLM の事前学習を行うのが自然であろう.ところが,これには膨大な計算資源が必要であり,計算資源が限られた状況では取り組みにくい。そこで,本研究では英語の LLM の能力や知識を日本語に転移することを狙い,英語の LLM からの継続事前学習(continual pre-training)に取り組む。
継続事前学習,或いは追加事前学習(further pretraining)は,事前学習済みの言語モデルを下流タスクでファインチューニングする前に,当該タスクのテキストで事前学習タスクを追加的に実施し,ドメイン適応を行う手法であった $[1,2,3]$. オープンで高性能な英語の LLM が登場してからは,継続事前学習を行い,LLMを他のタスクや言語に適応をさせる試みが増えている $[4,5,6,7,8]$. 継続事前学習で構築された日本語の LLM も公開されているが2)3),継続事前学習の効果について網羅的な調査は行われていない。例えば,継続事前学習に用いる日本語データの量とモデルの性能の関係や,サイズの異なるモデルにおける効果の検証,フルスクラッチで学習したモデルとの比較は不十分である.
本研究では, Llama 27B, 13B, 70B に日本語の継続事前学習を行う。主な貢献は以下の通りである.
・すべてのサイズにおいて,継続事前学習による日本語能力の向上および有用性を確認した.
・フルスクラッチで学習した日本語 LLM よりも高い性能を効率よく発揮することを実証した。
- 日本語の学習データ量の増加に応じた性能向上 (学習のスケール性)を示した。
・本研究で構築した日本語 LLM である Swallow 7B, 13B, 70B を HuggingFace 上で公開した ${ }^{4)}$.
- Swallow 70B は llm-jp-eval において,日本国内で開発されたモデルの中で最高性能を達成した (2023 年 12 月現在).
## 2 手法
## 2.1 モデルのアーキテクチャ
表 1 に Swallow モデルのハイパーパラメータを示す. 継続事前学習ではベースモデルからアーキテクチャを変更できないので,Swallow モデルは Llama 2 と同じ Transformer のデコーダを採用し,分散表現サイズ,注意ヘッド数,層数,文脈長は Llama 2 から変更していない. 継続事前学習時には学習データを連結し,ちょうど 4096 個のトークンの系列長になるように学習データ分割し, パディングトークンは用いなかった. Llama 2 34B, 70B モデルに Grouped-Query Attention (GQA) が導入されているため,Swallow 70B でも GQAを採用した. また,重み減衰(weight decay)に 0.1 , 勾配クリッピング (gradient clipping) に 1.0 を使用した. さらに,計算効率の向上と省メモリ化のため, Flash Attention 2 [9] を採用した。
バッチサイズ Llama 2 では,グローバルバッチサイズが $4 \mathrm{M}$ トークンであり, 事前学習時と同様のバッチサイズを設定するために,Swallow ではすべてのモデルサイズで 1024 のバッチサイズを使用した.
オプティマイザー AdamW [10] を採用した。 ハイパーパラメータには $\beta_{1}=0.9, \beta_{2}=0.95, \epsilon=$ $1.0 \times 10^{-8}$ を使用した。
学習率のスケジューリングコサイン波形による減衰(cosine learning rate scheduler)を利用し,学習率は 1,000 ウォームアップ・ステップで最大値に達し,最終的にはその $1 / 30$ に減衰するように設定した。
## 2.2 モデルの分散並列学習
70B のモデルを学習するために必要なメモリは 1 枚の GPUメモリを超えるため,データ並列とモデル並列を併用した分散並列学習を採用した.
## 2.2.1 学習環境
学習には産業総合研究所の $\mathrm{AI}$ 橋渡しクラウド (ABCI)を利用した. 混合精度(bfloat16)を採用し NVIDIA A100ノードを複数台使用し, 分散並列学習を行った. 各ノードは NVIDIA A100 40GB GPUを 8 基を搭載し,ノード間は InfiniBand HDR にて接続さ
れている.
## 2.2.2 分散学習手法
効率的に学習を行うために, データ並列 (data parallelism),テンソル並列化 (tensor parallelism),パイプライン並列化(pipeline parallelism)を統合した 3D 並列化 (3D parallelism) を採用し, 高い計算効率と効率的なメモリ利用を目指した。学習ライブラリには,Megatron-LM ${ }^{5}$ を採用した。表 2 に各モデルサイズにおける分散学習の設定を示した ${ }^{6)}$. 他にも,以下に挙げる工夫を取り入れた。
効率的なメモリ消費 Megatron-LMの Distributed Optimizerを用いて,オプティマイザの状態変数 (optimizer state)をデータ並列プロセス間に分散配置し,冗長性を排除することで必要なメモリ使用量を削減した。
トポロジーを考慮した 3D マッピング Transformer ブロックはパイプライン並列により複数の GPU に分散配置され,さらにテンソル並列により層内のパラメータが分散配置される。この際,Megatron-LM [11] で提案されているように,通信を多く必要とする分散手法のワーカー (テンソル並列)はノード内に配置した。また, データ並列の勾配平均化のための通信を考慮し,データ並列ワーカーも可能な限りノード内に配置した. パイプライン並列は他の並列化手法と比較して通信量が少ないため,パイプラインステージはノード間で配置した。
## 2.3 継続事前学習データ
継続事前学習に用いたコーパスは,日本語は Swallow コーパス [12] および日本語 Wikipedia ${ }^{7)}$ ,英語は RefinedWeb [13] および The Pile [14] である.これらのコーパスから約 100B トークンをサンプリングし,継続事前学習に用いた. サンプリングは, RefinedWeb の英語テキストが $5 \%$, The Pile の arXiv 論文テキスト(英語)が $5 \%$ とし,残りの $90 \%$ は日本語テキストが占めるように構成した。日本語テキ
5) https://github.com/NVIDIA/Megatron-LM
6)7B,13B モデルについては,実験途中で使用ノード数の変更せざるを得ない状況が発生したため,データ並列数が 2 倍もしくは半分になっている期間がある.これは本論文で説明する実験以外にも同時に進めた実験があるためで,限られた計算資源・期間で有望そうな設定を優先してモデル構築を進めたからである.
7) https://dumps.wikimedia.org/other/cirrussearch/ 2023 年 3 月 20 日付のダンプを使用.
表 1 Swallow モデルのアーキテクチャとハイパーパラメータ
表 2 分散学習の設定. DP, TP, PP, SPはそれぞれ,デー タ並列 (Data Parallelism), テンソル並列 (Tensor Parallelism), パイプライン並列 (Pipeline Parallelism), シークエンス並列 (Sequence Parallelism)を表す.
図 1 Swallow 7B,13B,70B の学習曲線(学習したトークン数と損失値)
ストは,約 1.6B トークンを日本語 Wikipedia から,残りをSwallow コーパスから抽出した.
## 2.4 トークン化
Llama 2 はバイト対符号化 (BPE: byte-pair encoding) でトークン化を行うため,Swallow もそれを踏襲した. ただし,日本語の文字やサブワードをLlama 2 の語彙に追加し,43,176 語からなる語彙でトークン化を行った ${ }^{8)}$. 語彙拡張の詳細については,別の論文を参照されたい [15].
## 2.5 学習の経過
Swallow モデルの学習曲線を図 1 に示す. Swallow 7B,13B,70B の学習にはそれぞれ,約 $5.0 \times 10^{21}$ FLOPs,約 $9.4 \times 10^{21}$ FLOPs,約 $5.0 \times 10^{22}$ FLOPs $の$計算量を要した。
## 3 評価
## 3.1 評価データセット
日本語の評価ベンチマークとして, llm-jp-eval [16] (v1.0.0) および JP Language Model Evaluation Harness ${ }^{9)}$ (commit \#9b42d41), 機械翻訳は Language Model Evaluation Harness [17] (v0.3.0) を使用した. llm-jp-eval は,多值選択式質問応答 (JCommonsenseQA [18]), 自由記述式質問応答 (JEMHopQA [19], NIILC [20]), 機械読解 (JSQuAD [18])を 4 ショット推論で評価した. なお,自然言語推論については言語モデルが予測するラベルが偏る傾向があり,偶然に正解ラベルの偏りと一致する場合にスコアが高くなるため,今回は評価対象から除外した. JP Language Model Evaluation Harness は,自動要約(XL-Sum [21])を 1 ショット推論,算術推論(MGSM [22])を 4 ショット推論で評価する. Language Model Evaluation Harness は,日英・英日機械翻訳(WMT 2020 Japanese $\leftrightarrow$ English [23])を 4 ショット推論で評価する.
## 3.2 汎用言語モデルの評価結果
表 3 に Swallow モデルおよびそのべースである Llama 2,そして日本国内で事前学習および継続事前学習を施した主要な日本語 LLM の評価結果を示す (モデルの出典は付録の表 4 参照).なお,これらのモデルは指示チューニングを行っておらず,LLM の「素」の能力を評価している.
ベースである Llama 2 と比較すると,Swallow 7B は 7.1 ポイント, 13B は 6.6 ポイント, $70 \mathrm{~B}$ は 7.0 ポイントの平均スコアの向上を達成した. 特に, Swallow 70B は国内で構築された LLM の中で最も高い性能を示した。また,国内でフルスクラッチから学習された LLM(calm-7b, 1lm-jp-13b-v1.0, PLaMo-13B)と比較すると, Swallow の平均スコアは 8.4 17.4 ポイント高く, 継続事前学習の有用性が示された.
ただ,海外に目を向けると,フルスクラッチか
lm-evaluation-harness
表 3 日本語タスクにおける評価結果. VE (Vocabulary Expansion) は語彙拡張を表す。また,CT (Continual Pre-Training) は継続事前学習を表す。「日」は日本語による継続事前学習を,「日英」は日本語と英語による継続事前学習を表す.
ら学習された LLM でも Llama 2 よりも高い日本語性能を示すもの(Mistral v0.1, Qwen-7B, Qwen-14B) が存在する.これらの LLM から継続学習されたモデル (japanese-stablelm-base-gamma-7b, nekomata-7b, nekomata-14b)は Swallow よりも高い平均スコアを示すことから, ベースモデルの性能差が反映されたと考えられる.いずれにしても,表 3 の結果から継続事前学習で日本語の能力を強化した LLM を構築できることが明らかになった。
## 3.3 学習トークンに対するスケール性
図 2 に,継続事前学習の学習データ量(トークン数)と日本語ベンチマークの平均スコアの関係を示した.この実験では, Swallow 7B, 13B,70B の継続事前学習のデータ量を約 $20 \mathrm{~B}$ トークンずつ増やしたときの平均スコアを計測した(学習トークン数が 0B の時はベースモデルであるLlama 2 のスコアを表す).この図から,継続事前学習の日本語のデータ量の増加に伴い, 平均スコアが単調に増加する傾向が読み取れる. 学習の初期段階である 20B の時の改善幅が最も大きく, その後改善幅が小さくなる傾向があるが,それでも学習データ量の増加に伴い性能は伸び続けていることから, 約 100B トークンの継続事前学習でも性能向上が飽和したとは言えない. 100B トークン以上で継続事前学習を行った場合の性能については,今後検証したいと考えている.
図 2 日本語タスクにおける継続事前学習のスケール性
## 4 結論と今後の展望
本研究では, Llama 2 に日本語データで継続事前学習を行い,日本語を強化したLLMであるSwallow を構築した. 評価実験から,継続事前学習の有効性および学習データ量に対するスケール性を示された. 実験では,評価データに特化したハックを行わないように細心の注意を払ったが,今後は下流タスクでの性能を高める方策や指示に従う LLM の構築方法も模索したい. また,異なるべースモデルからの継続事前学習を行い,より性能の高いモデルの開発を目指したい。これらの実験を通して, 日本語 LLM をフルスクラッチから学習した場合でも高い性能を発揮するための知見を蓄積し,国産 LLM の開発に貢献したいと考えている.
## 謝辞
国立研究開発法人産業技術総合研究所が構築・運用する AI 橋渡しクラウド(ABCI: AI Bridging Cloud Infrastructure)の「大規模言語モデル構築支援プログラム」の支援を受けた。学習に関して貴重なアドバイスを提供してくださった Sakana AI 秋葉拓哉氏に感謝する. 学習した LLM の評価実験では, LLM-jp (LLM 勉強会)で開発されているデータや公開されている知見を活用しました. 本研究は, JST, CREST, JPMJCR2112 の支援を受けた。
## 参考文献
[1] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pretrained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, September 2019.
[2] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of EMNLPIJCNLP, pp. 3615-3620, 2019.
[3] Chul Sung, Tejas Dhamecha, Swarnadeep Saha, Tengfei Ma, Vinay Reddy, and Rishi Arora. Pre-training BERT on domain resources for short answer grading. In Proceedings of EMNLP-IJCNLP, pp. 6071-6075, 2019.
[4] Kshitij Gupta, Benjamin Thérien, Adam Ibrahim, Mats L Richter, Quentin Anthony, Eugene Belilovsky, Irina Rish, and Timothée Lesort. Continual Pre-Training of Large Language Models: How to (re) warm your model? In Proceedings of NeurIPS, 2023.
[5] Yiming Cui, Ziqing Yang, and Xin Yao. Efficient and effective text encoding for Chinese LLaMA and Alpaca. arXiv:2304.08177, 2023.
[6] Ramon Pires, Hugo Abonizio, Thales Sales Almeida, and Rodrigo Nogueira. Sabiá: Portuguese large language models. arXiv:2304.07880, 2023.
[7] Wenhao Zhu, Yunzhe Lv, Qingxiu Dong, Fei Yuan, Jingjing Xu, Shujian Huang, Lingpeng Kong, Jiajun Chen, and Lei Li. Extrapolating large language models to non-English by aligning languages. arXiv:2308.04948, 2023.
[8] Jun Zhao, Zhihao Zhang, Qi Zhang, Tao Gui, and Xuanjing Huang. Llama beyond english: An empirical study on language capability transfer. arXiv:2401.01055, 2024.
[9] Tri Dao. FlashAttention-2: Faster attention with better parallelism and work partitioning. arXiv:2307.08691, 2023.
[10] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv:1412.6980, 2014.
[11] Deepak Narayanan, Mohammad Shoeybi, Jared Casper, Patrick LeGresley, Mostofa Patwary, Vijay Anand Korthikanti, Dmitri Vainbrand, Prethvi Kashinkunti, Julie Bernauer, Bryan Catanzaro, Amar Phanishayee, and Matei Zaharia. Efficient large-scale language model training on GPU clusters using Megatron-LM. In Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis, pp. $1-15,2021$.
[12] 岡崎直観, 服部翔, 平井翔太, 飯田大貴, 大井聖也藤井一喜,中村泰士, Mengsay Loem, 横田理央, 水木栄. Swallow コーパス: 日本語大規模ウェブコーパス. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[13] Guilherme Penedo, Quentin Malartic, Daniel Hesslow, Ruxandra Cojocaru, Alessandro Cappelli, Hamza Alobeidli, Baptiste Pan- nier, Ebtesam Almazrouei, and Julien Launay. The RefinedWeb dataset for Falcon LLM: Outperforming curated corpora with web data, and web data only. arXiv:2306.01116, 2023.
[14] Leo Gao, Stella Biderman, Sid Black, Laurence Golding, Travis Hoppe, Charles Foster, Jason Phang, Horace He, Anish Thite, Noa Nabeshima, Shawn Presser, and Connor Leahy. The Pile: an 800GB dataset of diverse text for language modeling. arXiv:2101.00027, 2020
[15] 飯田大貴, 水木栄, 藤井一喜, 中村泰士, Mengsay Loem, 服部翔, 平井翔太, 大井聖也, 横田理央, 岡崎直観. 大規模言語モデルの日本語能力の効率的な強化 : 継続事前学習における語彙拡張と対訳コーパスの活用. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[16] Namgi Han, 植田暢大, 大获匡俊, 勝又智, 鎌田啓輔, 清丸寛一, 児玉貴志, 菅原朔, Bowen Chen, 松田寛, 宮尾祐介, 村脇有吾, 劉弘毅. 1lm-jp-eval: 日本語大規模言語モデルの自動評価ツール. 言語処理学会第 30 回年次大会 (NLP2024), 2024.
[17] Leo Gao, Jonathan Tow, Stella Biderman, Charles Lovering, Jason Phang, Anish Thite, Fazz, Niklas Muennighoff, Thomas Wang, sdtblck, tttyuntian, researcher2, Zdeněk Kasner, Khalid Almubarak, Jeffrey Hsu, Pawan Sasanka Ammanamanchi, Dirk Groeneveld, Eric Tang, Charles Foster, kkawamu1, xagi dev, uyhcire, Andy Zou, Ben Wang, Jordan Clive, igor0, Kevin Wang, Nicholas Kross, Fabrizio Milo, and silentv0x. EleutherAI/lm-evaluation-harness: v0.3.0, December 2022.
[18] Kentaro Kurihara, Daisuke Kawahara, and Tomohide Shibata. JGLUE: Japanese general language understanding evaluation. In Proceedings of LREC, pp. 2957-2966, 2022.
[19] 石井愛, 井之上直也, 関根聡. 根拠を説明可能な質問応答システムのための日本語マルチホップ $\mathrm{QA}$ データセット構築.言語処理学会第 29 回年次大会 (NLP2023), pp. 2088-2093, 2023.
[20] 関根聡. 百科事典を対象とした質問応答システムの開発. 言語処理学会第 9 回年次大会 (NLP2003), pp. 637-640, 2003.
[21] Tahmid Hasan, Abhik Bhattacharjee, Md. Saiful Islam, Kazi Mubasshir, Yuan-Fang Li, Yong-Bin Kang, M. Sohel Rahman, and Rifat Shahriyar. XL-Sum: Large-scale multilingual abstractive summarization for 44 languages. In Findings of ACL-IJCNLP, pp. 4693-4703, 2021.
[22] Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, and Jason Wei. Language models are multilingual chain-of-thought reasoners. In Proceedings of ICLR, 2023
[23] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 Conference on Machine Translation (WMT20). In Proceedings of WMT, pp. 1-55, 2020
表 4 評価したモデルとその配布元 URL
## A 評価したモデルの出典
表 4 に、実験に用いたモデルの名前と配布元 URL の対応を掲載した。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A8-6.pdf | # デコーダベースの事前学習済み言語モデルの多言語能力に 関する分析:言語固有ニューロンの検出と制御
小島 武 1 沖村 樹 1 岩澤 有祐 ${ }^{1}$ 谷中 瞳 1 松尾 豊 1
1 東京大学
t.kojima@weblab.t.u-tokyo.ac.jp
## 概要
近年のデコーダベースの事前学習済み言語モデル (PLM)は,多言語能力の発現に成功している。しかし,モデル内部でそれぞれの言語がどのように扱われているかは明らかではない,我々は,多言語に対応したデコーダベースの PLM 内における,言語ごとに独自に発火する言語固有のニューロンの内部挙動を解析した.具体的には,英語,ドイツ語,フランス語,スペイン語,中国語,日本語の 6 言語を分析し,言語固有のニューロンは言語間でわずかな重複(<5\%)があるものの言語固有であり,その多くはモデルの最初と最後の数層に分布していることを示した.この傾向は,言語やモデルを問わず一貫していることを確認した。また,推論時に言語固有ニューロンの発火値を改ざんすることで,テキス卜生成において指定した対象の言語が生起する確率を顕著に変更できることを示した。
## 1 はじめに
近年の研究では,Transformer 構造を持つ事前学習済み言語モデル (Pre-trained language model: PLM) の優れた多言語能力が頻繁に報告されている。一部の PLM は,明示的に多言語コーパスを混合して事前学習を行っている $[1,2]$ が,英語主体のテキストコーパスを使用して学習したモデルでも,多言語のテキストが低い割合で含まれていたために,意図せずに多言語能力を獲得する場合もある.例えば, Llama 2 [3] がその一例である. これらのモデルはどのように多言語能力を表現するのか.この問いに答えるため, 先行研究は複数言語にわたって活性化する言語普遍的なニューロンの検出に焦点を当てており,主にエンコーダベースの PLM に注目している $[4,5,6,7,8]$. 入力の抽象化を検証するにはエンコーダベースのモデルで十分かもしれないが,一方
でデコーダベースの PLM は生成の後半部分で言語固有の情報を回復して言語化する必要があるため, これらのモデル内での言語固有の処理は,エンコー ダベースのものよりも複雑で本質的な機能であるはずである。しかし,デコーダベースの PLM における言語固有のニューロンの存在と発火に焦点を当てた研究は限られている.
本研究は,デコーダベースの PLM における言語固有のニューロンの挙動を調査する。具体的には, XGLM,BLOOM,および Llama 2 を含む複数のデコーダベースの PLMを,6つの言語(英語,ドイツ語,フランス語,スペイン語,中国語,日本語)について分析する。言語固有のニューロンを調査するために,[9] によって提案されたアプローチを採用する.このアプローチは,あるグループの文(ポジティブ文)に対して活性化するが,他のグループ (ネガティブ文)に対しては活性化しないニューロンを特定する。対象とする言語のテキストをポジティブ,それ以外の言語のテキストをネガティブとして扱い,ポジティブな文に統計的に活性化する言語固有のニューロンを特定する.実験では,特定された言語固有のニューロンが主にモデルの最初の数層と最後の数層に分布し,この傾向は複数の言語とモデルの種類にわたって一貫していることを示す.また,検出したニューロンの効果を検証するために,推論時にモデル内の言語固有ニューロンに介入することで,生成テキストの対象言語の生起確率を制御することができることを示す.
## 2 提案手法
我々は,[9]のアプローチに基づき,各言語に固有のニューロンを検出する。このアプローチは元々,同音異義語や性別バイアスなど,特定の単語レベルの概念に反応するニューロンを見つけ出し制御するために開発された。しかし,我々はより広範な文レ
ベルおよび言語固有の概念を把握するニューロンを見つけることを目指しているため,元のアプローチを我々の目的に合わせて修正する。
まず,|L|言語の集合を考え,各言語のテキストを準備する. 各言語 $l \in L$ について, $N_{l}$ 個のテキストを準備することで,全言語で合計 $N=N_{1}+\ldots+N_{l}+\ldots+N_{|L|}$ 個のテキストが得られる.全テキストの集合を $x=\left.\{x_{i}\right.\}_{i=1}^{N}$ とする. 我々の目標は,対象とする言語 $l_{t} \in L$ のテキストに対して活性化するが,他の言語 $L \backslash l_{t}$ のテキストには活性化しないニューロンを検出することである.各テキスト $x_{i} \in x$ に対して,そのテキストが対象言語である場合(すなわち, $l=l_{t}$ )はラベル $b_{i}=1$ を割り当て, そうでない場合は $b_{i}=0$ を割り当てる. $N_{l_{t}}^{+}$を対象言語 $l_{t}$ のテキストから成るポジティブ文(すなわち, $\left.b_{i}=1\right) , N_{l_{t}}^{-}$を他の言語のテキストから成るネガティブ文(すなわち, $b_{i}=0 )$ とすると,合計で $N=N_{l_{t}}^{+}+N_{l_{t}}^{-}$となる. 例えば,対象言語 $l_{t}$ がフランス語である場合,フランス語のテキストにはラベル 1 が割り当てられ,英語や中国語など他の言語のテキストにはラベル 0 が割り当てられる.
次に,入力テキストが与えられた際のモデル内の各ニューロンの活性化値を観察する。各ニュー ロンには一意のインデックス $m \in M$ を割り当てる. $|M|$ はモデル内のニューロンの総数である. テキスト $x_{i} \in x$ がモデルに入力されたときのニューロン $m$ の出力值を $z_{m, i} \in z_{m}$ とする. この值の計算方法について詳細を説明する. 具体的には,テキスト $x_{i}$ は $T$ 個のトークンのシーケンス $x_{i}=\left.\{w_{i, 1}, \ldots, w_{i, t}, \ldots, w_{i, T}\right.\}$ で構成される. したがって,入力テキストが与えられた場合,デコーダベー スの Transformer モデル内には $\mathrm{T}$ 個のニューロン出力值 $\left.\{z_{m, i, 1}, \ldots, z_{m, i, j}, \ldots z_{m, i, T}\right.\}$ が存在する. 我々は文中の各トークンにおけるニューロン出力値の平均を取る: $z_{m, i}=f\left(z_{m, i, 1}, \ldots, z_{m, i, t}, \ldots z_{m, i, T}\right)$ ここで,$f$ は平均演算子としての集約関数である. 元のアプロー チ [9] では $f$ を最大プーリング演算子として定義しているが,我々のアプローチでは言語識別の目的でトークン間で一貫して活性化するニューロンを特定するために, $f$ を平均演算子として定義した. [PAD] トークン位置の出力值はノイズとみなされるため,例外として集約から除外した。
最後に,言語固有のニューロンを検出する。デー タセット $\left.\{x_{i}, b_{i}, z_{m, i}\right.\}_{i=1}^{N}$ を予測タスクのサンプルとみなす. 具体的には,テキスト $\left.\{x_{i}\right.\}_{i=1}^{N}$ をモデルの
図 1: 提案手法の概要. 特定の言語に対して活性化する傾向がある言語固有ニューロンを検出する.推論時に,検出したニューロンを強制的に活性化する介入を行い,対象の言語文の生起確率を操作する.
入力, ラベル $\left.\{b_{i}\right.\}_{i=1}^{N}$ を出力の正解,ニューロンの出力値 $\left.\{z_{m, i}\right.\}_{i=1}^{N}$ を正解の予測スコアとみなす. 異なる予測閾値における PR 曲線下の面積である平均適合率 $\left(A P_{m}=A P\left(z_{m}, b\right) \in[0,1]\right)$ を用いて,タスクに対するニューロン $m$ の性能を測定する.全てのニューロンに対して $A P_{m}$ を測定し,降順に並べる。元のアプローチでは,降順で上位 $k$ 個のニューロンのみが対象のニューロンとして定義されている. しかし,これはラベルとの強い正の相関(すなわち,平均適合率が最も高い上位 $k$ 個のニューロン)のみを考慮しており,ラベルとの強い負の相関(すなわち, 平均適合率が最も低い下位 $k$ 個のニューロン) は考慮していない. 我々は,上位 $k$ 個のニューロンだけでなく, 下位 $k$ 個のニューロンも特定の言語と強く関連していると仮定し,元のアプローチを拡張して,上位 $k$ 個と下位 $k$ 個のニューロンの両方を言語固有のニューロンと定義する. 実験全体でデフォルト值として $k=1000$ を設定する. モデルの入力層 (単語埋め込み)と出力層(投影層)のニューロンは,これらの層が言語固有のモジュール(言語固有の文字またはサブワード)で構成されていることが明らかであるため,検出対象から除外する。
## 3 実験
## 3.1 モデルとデータセット
分析対象のモデルは XGLM (564M,1.7B,2.9B) [1], BLOOM (560M, 1.7B, 3B) [2], および Llama 2 (7B,13B)[3]の3つとする. XGLM と BLOOM は,明示的に宣言された多言語モデルである. Llama 2
図 2: 平均適合率で高い順に並べたときの上位 1000 個,中位 1000 個, 下位 1000 個のニューロンの各層における分布. 1 行目: XGLM-564M, de. 2 行目:
BLOOM-1b7, fr. 3 行目: Llama2-13b, zh.
は大半が英語のテキストコーパスで訓練されたモデルあり,他の言語の含有は最小限である(付録 A).
分析対象の言語は英語 (en),ドイツ語 (de),フランス語 (fr), スペイン語 (es), 中国語 (zh), 日本語 (ja),の6 言語とする。言語固有のテキストコー パスは, PAWS-X [10] と FLORES-200 [11]を混合して作成する. PAWS-Xは,上記の言語を含む 7 言語における 2 つのテキスト間のパラフレーズ同定用のデータセットである. FLORES-200 は, 200 以上の言語に対する機械翻訳タスクのためのデータセットである.これらのデータセットにおけるサンプル文は品質が高く, テキストの種類も多様であり, 実験に必要な 6 言語をカバーしているため,これらを混合して使用する. 本実験では,各言語のテキストコーパスを作成するために,2 つのデータセットからランダムに $1: 1$ の比率でテキストをサンプリングする. 各言語について 500 件のテキストを準備し, 6 つの言語全体で 3000 件のテキストを構成する.
## 3.2 結果と考察
## 3.2.1 言語固有ニューロンの検出
図 2 は,2 節の手法を用いて検出されたニュー ロンの各層における分布を表したヒストグラムである。平均適合率順の上位 1000 個,下位 1000 個のニューロンの大部分がモデルの最初と最後の数層に分布している. 対照的に,平均適合率順で中間 1000 個のニューロン(中央値の周辺)は主に中間層に分表 1: 言語間で重複する言語固有ニューロンの数 (XGLM-564M).
布している。これらの分布特性は言語,モデルのサイズ,種類を問わず同じであることが示された.
さらに,ある言語で発火する言語固有のニューロンは,他の全ての言語との重複が少ないことが確認された。表 1 は,各言語間で重複するニューロンの数を集計した結果だが,言語間のニューロンの重複はどの言語間でも $5 \%$ 未満であることがわかる.
図 2 の所見と多言語モデルに関する先行研究 [12] に基づいて,デコーダベースの PLM の内部動作について以下の解釈が可能である. PLM の最初の数層は,各言語の語彙的または構文的表現を言語非依存の意味論的表現に変換する. モデルの中間層は主に言語非依存の意味理解と表現の変換処理である. モデルの最後の数層は, 主に意味論的表現を目標言語の構文と語彙情報に逆変換する。
## 3.2.2 言語固有ニューロンの制御
検出された言語固有のニューロンの有効性を示すために,言語固有のニューロンに介入することでモデルがテキスト生成において言語を制御できるかどうかを調査する。我々は,推論中に上位 1000 個および下位 1000 個のニューロンの出力値を固定値で上書きすることにより,テキスト生成を制御する.具体的には,各ニューロン $m$ に対して,事前に以下のように固定値を計算する: $\bar{z}_{m}=\operatorname{Median}\left(\left.\{z_{m} \mid b=1\right.\}\right)$. これは,対象言語のテキストに対するニューロン出力の中央值を意味する.推論中には,順伝播において上位 1000 個および下位 1000 個のニューロンの出力をこの固定值で置き換えることにより介入し,モデルの対象言語のテキスト生成確率を観察する.
本実験では, 入力に [BOS]トークンのみをモデルに与え,テキストを生成させる.各モデルは,1 から 100 までランダムシードを変更しながら,ランダムサンプリングデコーディングによりテキスト生成を 100 回繰り返す. 図 3 は,XGLM-564M モデルを
## \#\#\#\# xglm-564M : en
Some of the issues that we are gonna have here are: the NSA is investigating whether the program is leaking in to the public and the government is trying to stop it as of late as it is possible. In the meantime the NSA is going to run the Panama Papers to find out what the UAE(UAE is the official of the U.E.E.)
\#\#\#\# xglm-564M : de
Vorträge unter der Überschrift 'War für Trojä und ihr jahrhundert' zu nutzen und abzuschließen.
Urlaub für Menschen mit Schmerzen
## \#\#\#\# xglm-564M : fr
«ll serait dommage de réécrire l'histoire au lieu de donner à entendre qu'une personne est une personne vivant dans l'état dans lequel elle est présente», ajoute le Kentou. «La plupart des médias dans le monde ne donnent pas suffisamment de voix, et qu'un jour il n'y sérieux en ligne seulement sur la.
\#\#\#\# xglm-564M : es
Chile, Colombia, Paraguay, Uruguay, Bolivia, Chile, Ecuador, Perú, Uruguay, Colombia, Paraguay,
Paraguay, Colombia
Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestro sitio web. Si continúa utilizando este sitio asumiremos que está de acuerdo.Estoy de acuerdo
\#\#\#\# xglm-564M : zh
三是(一)有权与允诺的机关有权予以采纳。
地点:深圳市高新区瑞华路科创新大厦1006室
\#\#\#\# xglm-564M : ja
ただいま(25日の遅れのため)この商品は、注文確認日の翌営業日に発送致します。
いつものモテテレムはいつもと同じのにしちゃうの。
図 3: XGLM-564M モデルで推論時に各言語固有ニューロンに介入して生成したテキストサンプル.
用いて推論時に各言語固有ニューロンに介入して生成したテキスト文のサンプルである. 各言語固有のニューロンに介入することにより, 出力テキストの言語が変更できることが定性的に示されている.
対象言語の生起確率を定量的に測定するために,生成されたテキストの対象言語を FastText の言語識別分類器 $[13,14]$ によって推定する. 分類スコアが閾値 0.5 を超える場合,各テキストを対象言語に分類することとする $[15,3]$. 表 2 は,各言語固有ニューロンへの介入によるテキスト生成における対象言語の生起確率の変化を定量的に測定した結果である。介入によって,テキスト生成における対象言語の生起確率が増加する傾向があることが示された。また我々は,上位 1000 個のニューロンのみ,表 2: 生成されたテキストにおける対象言語の生起確率. ”-”行の値は 6 つの言語の平均值.
下位 1000 個のニューロンのみ,そして上位下位両方のニューロンに介入するという 3 種類の実験を行い,上位下位両方のニューロンへの介入が,どちらか片方への介入よりも所望の言語の生起確率が高くなることを確認した。これは上位下位両方のニュー ロンが言語の制御に関係があることを示唆している. 上位のニューロンは対象言語に対して正値の発火,下位のニューロンは負値の発火をする傾向がある(付録 B.1).また介入するニューロンの数を変化させて対象言語の生起確率と生成文の品質を測った結果, $k=1000 \sim 10000$ が最適であった(付録 B.2).
## 4 おわりに
本研究は,PLM 内で各言語固有に発火するニュー ロンの存在を検証した。実験により,検出された言語固有ニューロンは言語やモデルの種類に関わらず,主に最初と最後の数層に存在することが示された.また,推論時に言語固有ニューロン出力値を固定の活性値に置き換える介入実験を行った結果,対象言語文の生起確率が増加することを確認した。
## 謝辞
本研究は,JST さきがけ JPMJPR21C8 の助成を受けたものである.
## 参考文献
[1]Xi Victoria Lin, Todor Mihaylov, Mikel Artetxe, Tianlu Wang, Shuohui Chen, Daniel Simig, Myle Ott, Naman Goyal, Shruti Bhosale, Jingfei Du, et al. Few-shot learning with multilingual language models. arXiv preprint arXiv:2112.10668, 2021.
[2]Teven Le Scao, Angela Fan, Christopher Akiki, Ellie Pavlick, Suzana Ilić, Daniel Hesslow, Roman Castagné, Alexandra Sasha Luccioni, François Yvon, Matthias Gallé, et al. Bloom: A 176b-parameter openaccess multilingual language model. arXiv preprint arXiv:2211.05100, 2022.
[3]Hugo Touvron, Louis Martin, Kevin Stone, Peter Albert, Amjad Almahairi, Yasmine Babaei, Nikolay Bashlykov, Soumya Batra, Prajjwal Bhargava, Shruti Bhosale, et al. Llama 2: Open foundation and finetuned chat models. arXiv preprint arXiv:2307.09288, 2023.
[4]Omer Antverg and Yonatan Belinkov. On the pitfalls of analyzing individual neurons in language models. In International Conference on Learning Representations, 2022.
[5]Karolina Stańczak, Edoardo Ponti, Lucas Torroba Hennigen, Ryan Cotterell, and Isabelle Augenstein. Same neurons, different languages: Probing morphosyntax in multilingual pre-trained models. arXiv preprint arXiv:2205.02023, 2022.
[6]Yuheng Chen, Pengfei Cao, Yubo Chen, Kang Liu, and Jun Zhao. Journey to the center of the knowledge neurons: Discoveries of language-independent knowledge neurons and degenerate knowledge neurons. arXiv preprint arXiv:2308.13198, 2023.
[7]Karolina Stańczak, Lucas Torroba Hennigen, Adina Williams, Ryan Cotterell, and Isabelle Augenstein. A latent-variable model for intrinsic probing. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 37, pp. 13591-13599, 2023.
[8]Andrea Gregor de Varda and Marco Marelli. Datadriven cross-lingual syntax: An agreement study with massively multilingual models. Computational Lin- guistics, Vol. 49, No. 2, pp. 261-299, 2023.
[9]Xavier Suau Cuadros, Luca Zappella, and Nicholas Apostoloff. Self-conditioning pre-trained language models. In International Conference on Machine Learning, pp. 4455-4473. PMLR, 2022.
[10]Yinfei Yang, Yuan Zhang, Chris Tar, and Jason Baldridge. PAWS-X: A cross-lingual adversarial dataset for paraphrase identification. In Proceedings of the 2019 Conference on EMLNP and the 9th IJCNLP (EMNLP-IJCNLP), pp. 3687-3692, Hong Kong, China, November 2019.
[11]Marta R Costa-jussà, James Cross, Onur Çelebi, Maha Elbayad, Kenneth Heafield, Kevin Heffernan, Elahe Kalbassi, Janice Lam, Daniel Licht, Jean Maillard, et al. No language left behind: Scaling human-centered machine translation. arXiv preprint arXiv:2207.04672, 2022.
[12]Benjamin Muller, Yanai Elazar, Benoît Sagot, and Djamé Seddah. First align, then predict: Understanding the cross-lingual ability of multilingual BERT. In Proceedings of the 16th Conference of the EACL: Main Volume, pp. 2214-2231, Online, April 2021.
[13]Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. In Proceedings of the 15th Conference of the EACL: Volume 2, Short Papers, pp. 427-431, Valencia, Spain, April 2017.
[14]Armand Joulin, Edouard Grave, Piotr Bojanowski, Matthijs Douze, Herve Jegou, and Tomas Mikolov. Fasttext.zip: Compressing text classification models, 2017.
[15]Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting high quality monolingual datasets from web crawl data. In Proceedings of the Twelfth Language Resources and Evaluation Conference, pp. 40034012, Marseille, France, May 2020. European Language Resources Association.
[16]Xiaozhi Wang, Kaiyue Wen, Zhengyan Zhang, Lei Hou, Zhiyuan Liu, and Juanzi Li. Finding skill neurons in pre-trained transformer-based language models. In Proceedings of the $\mathbf{2 0 2 2}$ Conference on EMLNP, pp. 11132-11152, Abu Dhabi, United Arab Emirates, December 2022.
## A モデル詳細
表 3 は実験に使用されたモデルの詳細である. すべてのモデルは Huggingface からダウンロードした.
表 3: 実験に用いたモデル一覧.
表 4 は,各モデルの事前学習データセットにおける言語の分布である1).
表 4: 各モデルの事前学習データ内の言語分布.
## B 追加実験
## B. 1 言語固有ニューロンの活性値の傾向
原則として,平均適合率における上位 1000 個のニューロンは正の活性化値と相関している. 対照的に, 下位 1000 個のニューロンは負の活性化値と相関している. 図 4 はこの主張を検証した結果である. 活性値と正の相関があるニューロンだけでなく負の相関を持つニューロンも,言語固有ニューロンとして重要であることを示唆している [16].
## B. 2 介入するニューロン数の変更
介入するニューロン数を変更するアブレーション実験を行い,対象言語の生起確率に対する効果を分析した. また,モデルによって生成されたテキストの品質を BLEU-4 スコアを用いて検証した。言語識別器によって対象言語であると識別されたテキ
1)XGLM の情報は https://huggingface.co/facebook/ $x g l m-2.9 B$ から引用されている. BLOOM の情報は https://huggingface.co/bigscience/bloom\#languages から引用されている.
図 4:【上】平均適合率上位 1000 ニューロンにおける対象言語(on)とその他言語(off)の活性値の分布.【下】下位 1000 ニューロンの活性化値の分布.
図 5: テキスト生成時に介入するニューロン数の変更実験. $\mathrm{x}$ 軸: $\log _{10}$ (介入ニューロン数 $k$ ).
ストのみについて品質を評価した. 具体的には,対象言語として識別された生成テキストそれぞれについて,そのテキストを仮説文とし,すべてのポジティブ文を参照文として,BLEU スコアを算出し,平均を取った. テキストを各モデルのトークナイザーでトークン化した後に BLEU スコアを測定した. BLEU スコアの測定には NLTK ライブラリを使用した. 図 5 に示されるように,介入するニューロンの数 $k$ を約 1000~10000(この図では 10 の対数で 34)まで増やすと,一般的に対象言語の生起確率が増加するが,それを超えて増加させるとテキストの品質が低下する. 最終的には文が崩壊し, 言語識別と品質が著しく低下した。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A9-1.pdf | # 言語モデルが生成したテキストを書き換える タスク非依存の復号手法
藤田 正悟 ${ }^{1}$ 小林 尚輝 ${ }^{1}$ 後藤 啓介 ${ }^{1}$
1 株式会社 LegalOn Technologies
\{shogo.fujita, naoki.kobayashi, keisuke.goto\}@legalontech.jp
## 概要
言語モデルは流暢なテキスト生成を可能とし幅広い生成タスクに使用されているが,その出力は常に正しいとは限らない,そのため,実際には言語モデルによって生成されたテキストを手作業で校正する必要があるが,これは時間のかかる作業である. 本稿では指定された区間のテキストを書き換えるタスク,および書き換えのための復号手法の拡張を提案する。提案手法は書き換えたいテキストの生成に使用した言語モデルを再利用するため,追加のモデルの学習やデータセットを必要とせずテキストを書き換えることができる.実験では要約タスクと翻訳タスクにおける本手法の有効性を評価し, text infilling モデルと paraphrase モデルをベースラインとして比較した. 提案手法は品質と多様性の両方においてベースラインを上回り,書き換えタスクへの有効性を実証した。
## 1 はじめに
近年,言語モデルのテキスト生成能力は飛躍的に改善され,その流暢な出力から機械翻訳や文書要約,チャットボットなどの幅広いテキスト生成タスクに利用されている。 しかし,言語モデルによって生成されたテキストが常に正しいとは限らず,文法的な誤りや事実と異なる内容が含まれる可能性がある.このような問題から,言語モデルが生成したテキストを人手により校正する必要があるが,これはコストのかかる作業である。人手によるテキストの校正は,(1) 誤りを含む修正区間の特定,(2) 特定した区間のテキストの書き換えの二つのステップに分けられる。多くの場合,(1)の修正区間は直感的に判断でき,そのコストは比較的小さい。一方で (2) のテキストの書き換えは創造的なプロセスであるため,そのコストは比較的大きい [1]. したがって,(2)
の書き換えが校正にかかるコストの大半を占める.本稿では,校正にかかるコストの削減を目的として,言語モデルが生成したテキストを対象に,指定した区間を書き換えるタスクを提案する。ただし,本タスクで対象とする言語モデルは,要約や翻訳などの特定のタスクに応じたテキストの生成を目的とした言語モデルに限定し,書き換えられたテキストはそのタスクに応じた特性を満たす必要がある. 例えば,文書要約を行う言語モデルの生成したテキストを対象にした書き換えでは,書き換えられたテキストも入力文書の要約である必要がある。そのため,一般的な知識から一部が欠落したテキストの穴埋めを行う text-infilling [2] や,テキストの意味を変えずに長さや文体の異なるテキストを生成する paraphrasing [3, 4] とはタスクの性質が異なる。また,実際のシステムとして運用する場合,複数の書き換え候補から手動で最も良いものを選べた方が有用である。そこで,本タスクでは複数の候補を生成し,その多様性も評価する。
先述したように提案する書き換えタスクは,特定の目的に沿った書き換えテキストを生成し,また言語モデルが生成したテキスト上の任意の区間の書き換えを扱う必要がある。これらの要件を満たすために,提案手法は元のテキストを生成した言語モデルを再利用し,一般的な復号アルゴリズムである Beam searchを拡張して任意の書き換え区間において複数の書き換え候補を生成する。言語モデルの再利用により,元の目的に沿った書き換えテキストの生成を保証する. さらに言語モデルの再利用には,追加のデータセットやモデルを必要としない利点がある。また Beam search の拡張により書き換え区間の後方にあるテキストを生成する制約を与えることで,元の文脈と自然に繋がる書き換えテキストの生成を可能とする。
実験では,要約と翻訳の 2 つのタスクにおいて,
タスク固有の性能と書き換え候補の多様性の 2 つの観点から評価を行った. ベースライン手法として, text-infilling により書き換えを行う BART [5] と paraphrase により書き換えを行う DEIIteraTeR [4]を提案手法と比較し, 提案手法がタスク固有の性能と多様性の両方においてべースラインよりも優れた性能を示した。
## 2 提案手法
## 2.1 タスク定義
提案する書き換えタスクを,言語モデルの生成したテキスト上の指定された区間に対して書き換え候補を生成するタスクとして定式化する。本タスクの入力は, 特定のタスクで学習された言語モデル,言語モデルに入力されたテキスト,言語モデルの生成したテキスト $O=\left[o_{1}, \ldots, o_{n}\right]$ および $O$ 上の書き換え区間 $(s, e)$ とする. 本タスクの出力は, $\left[o_{s}, \ldots, o_{e-1}\right]$ に代わる書き換え候補とする. 以降では $\left[o_{1}, \ldots, o_{s-1}\right],\left[o_{s}, \ldots, o_{e-1}\right],\left[o_{e}, \ldots, o_{n}\right]$ をそれぞれ, prefix, target, suffixとし, prefixと suffixは書き換え区間の前後のテキスト, target は書き換え区間に該当するテキストである。
## 2.2 Suffix-Aware Generation (SAGen)
一般に,言語モデルは左から右へ逐次的にトークンを生成し, (eos) が出力されると生成を終了する. テキスト上の与えられた区間の書き換え候補を生成する場合,出力される書き換え候補は元のテキストの前後の文脈と自然につながる必要がある. しかし, 先に述べたように,言語モデルは左から右へと生成するため, 生成時に後ろの文脈を考慮しない。結果として生成された書き換え候補は,後続する文と上手く繋がらない.この問題を解決するために,我々は (eos) の代わりに suffix を出力して生成を終了する Suffix-Aware Generation (SAGen) を提案する. SAGen は,各時刻ステップにおいて,以下のように suffix を生成するスコアを計算する.
$
\begin{aligned}
& P\left(\operatorname{suffix} \mid w_{<t}\right) \\
= & \prod_{i=}^{n} P\left(o_{i} \mid w_{1}, \ldots, w_{t-1}, o_{e}, \ldots, o_{i-1}\right)^{\frac{1}{\text { suffix }}}
\end{aligned}
$
ここで, $P$ は言語モデルの生成スコア,$w_{<t}$ は時刻 $t$ 以前に生成されたトークン列,|suffix $\mid$ は suffix のトークン数であり,スコアの正規化に用いられる。
## 2.3 出力の品質に関する工夫
SAGen は,(eos) の代わりに suffix を生成することで,書き換えられた出力の末尾を suffix にする.これは,出力を冗長にしたり,文法的に不正確にしたりする可能性があるため,これらの悪影響を回避するために以下の方法を提案する。
## 2.3.1 Length Adjust (LA)
書き換えタスクの目的は,元のテキストを置き換えるテキストを生成することであり,ほとんどの場合,書き換えの前後でテキストの長さは類似している. Length Adjust (LA) は, 式 (1) で生成された suffix のスコアに $\alpha$ を用いて以下のように重み付けを行い,出力長を制御する。
$
\begin{aligned}
& \hat{P}\left(\operatorname{suffix} \mid w_{<t}\right)=P\left(\operatorname{suffix} \mid w_{<t}\right)^{\alpha} \\
& \alpha=\alpha_{s}+\left(\alpha_{e}-\alpha_{s}\right) \frac{\min (t-s, \mid \text { target } \mid)}{\mid \text { target } \mid}
\end{aligned}
$
$\alpha_{s}$ と $\alpha_{e}$ はそれぞれ, $\alpha$ の最大値と最小値を表す八イパーパラメータである.
## 2.3.2 Word Joint (WJ)
SAGen は suffix と文法的に繋がらないような文を生成してしまうことがある.これは, suffix の先頭のトークンの生成スコア $P\left(o_{e} \mid w_{<t}\right)$ と, 式 (1) との間に乘離があるために起こると考えられる。このずれを埋めるために,Word Joint (WJ) は, suffix の先頭の生成スコアを利用して suffix の生成確率を次のように補正する。
$
\hat{P}\left(\operatorname{suffix} \mid w_{<t}\right)= \begin{cases}P\left(\operatorname{suffix} \mid w_{<t}\right) & P\left(o_{e} \mid w_{<t}\right) \geq d \\ 0 & P\left(o_{e} \mid w_{<t}\right)<d\end{cases}
$
ここで,dは suffix に繋がるかどうかを判断する閾值でありハイパーパラメータである.
## 2.4 出力の多様性に関するエ夫
実際の書き換えシステムのユースケースでは,複数の候補を出力させ,その中から最適なものを手動で選択する方法が考えられる.そこで,Beam search (BS)に SAGen を適用することで,suffix で終わる複数の候補を効率的に生成することができる. しかし, BS は尤度に基づいて候補を生成するため, ビーム間で類似した候補が生成される傾向がある. Diverse beam search (DBS) [6] は,ビームを複数のグ
ループに分割し,グループ間の類似性を低減する制約により,BS の出力間の多様性を改善する手法である. ここで DBS に追加して候補間の長さの多様性を改善する多様長ビーム探索(DLBS)を提案する。様々な長さの候補を生成することは,書き換え時の情報の追加や削除に相当するため有用である. DLBS はグループ $g$ について式 (2)の $\alpha$ を計算する.
$
\alpha_{g}=\alpha_{s}+\left(\alpha_{e}-\alpha_{s}\right) \frac{\min \left(t-s, \beta_{g} \mid \text { target } \mid\right)}{\beta_{g} \mid \text { target } \mid}
$
ここで, $\beta_{g}$ はグループ $\mathrm{g}$ の出力長を制御するパラメータである.
## 3 実験設定
準備: 我々は翻訳と要約における書き換えタスクに取り組む. まず,各タスクの言語モデルによる出力を用意する.書き換え区間の指定を模倣するため,文頭から $20 \%$ の単語を prefix,文末の $20 \%$ を suffix とした. 残りの $60 \%$ を書き換え,各タスクに対する書き換えの適切性を評価した。
検証するデータセットと言語モデル:翻訳タスクの検証では, データセットに WMT19 EnDe [7], 言語モデルに 'facebook/bart-wmt19-de-en’を用いて実験した ${ }^{1)}$.また,要約タスクの検証では,データセットにXSum [8]を,言語モデルに 'facebook/bart-large-xsum'を用いた. 実験では,各データセットに含まれる dev セットと test セットの分割をそのまま使用した。
評価指標: 各タスクの性能を評価する評価指標として,要約には ROUGE 1/2/L [9] を,翻訳には BLUE [10] と Comet22 [11]を使用した2) ${ }^{2}$.これらのスコアは,各タスクの正解文と書き換えた出力の間で計算する。また, ChatGPT ${ }^{3)}$ を利用した評価指標である ChatGPT-Score も報告する4).書き換え候補の多様性を評価するために, 生成された候補間の類似度を計算する Self-BLEU [14] を用いた。 Self-BLEU が低いほど,多様性が高いことを示す。書き換えタスクではその書き換え出力において, prefix と suffix を保持しなければならない.この制約を満たした割合を Constraint として報告する。
1)書き換えは単語単位で行うので,3単語未満の文章は検証から除いた。
2)これらの設定はすべて, Evaluation by Huggingface のデフォルト・パラメーターを使用した。
3) https://openai.com/chatgpt
4)[12] のプロンプトを翻訳の評価に,[13] のプロンプトを要約の評価に使用し,各データセットからランダムに 100 件のサンプルを選択して評価した。
ベースライン: ベースラインモデルとして BART [5] と DElIteraTeR [4] を用いた. BART は書き換え候補を Text-Infilling タスクとして生成し, DElIteraTeR は書き換え候補を Paraphrase タスクとして生成する5). これらのモデルは,この実験で使用されたデータセットとは異なるデータセットで学習されている.
復号手法: 貪欲な復号手法では, target と同じテキストが再度生成されるため,書き換え候補を生成する際には BS や確率的な復号手法を用いる必要がある。我々は DLBS と比較するためのベースラインとして Sample beam search (SBS) [15] と DBS を使って実験を行った。
ハイパーパラメータ: 我々は LA のパラメータを $\alpha_{s}=0.5, \quad \alpha_{e}=0.1$ とし, DLBSのパラメータを $\beta=[0.8,0.9,1.0,1.1,1.2]$ とした. WJ のパラメータは要約タスクでは $d=1 e-3$ を,翻訳タスクでは $d=1 e-4$ を使用した. 復号時にはビーム幅を $B=10$ とし,サンプリングを上位 $k=50$ の尤度に,グルー プサイズ $g=5$ として実験を行った.
## 4 結果
XSum での実験結果 (表 1) は, SAGen が ChatGPTScore において DElIteraTeR と同等であり, Self-BLEU において総合的に最も優れていることを示している.さらに, WMT19 の結果(表1)では, ChatGPTScore と Self-BLEU の両方で SAGen が最も優れている. BART と DElIteraTeR は, prefix と suffix を出力する制約に違反することが多く, DElIteraTeR の出力の半分は制約を満たしていなかった.
どちらのデータセットにも共通して, BART は出力の質を評価する ChatGPT-Score が他より低い傾向があった。これは,BARTの言い換えた出力が極端に短くなる傾向から,その言い換え元のテキストとの乘離が大きくなったためである. DElIteraTeR は出力品質の指標は高いものの, 多様性が低い.これはピリオドの追加や単語の削除などの小さな変更が多いためであり,このことから書き換えタスクには適さないとわかる。
Self-BLEU において SBS はDBS と比較して, XSum で 27.13 ポイント, WMT19 で 30.04 ポイント増加した。ここから, SBS は多様性の点で DBS ょり劣っているということがわかる.これは,SBSが確
}} & \multirow{2}{*}{ Self-BLEU } & \multirow{2}{*}{ Constraint } \\
表 1 XSum での実験結果 (上) WMT19 での実験結果 (下). XSum の ChatGPT-Score は relevance, consistency, fluency, coherence の 4 つの観点で 10 段階で評価した。各指標で最も優れたスコアを bold で示した.
率的に次の候補を選択するため,スコアの高いビー ムの影響を強く受け,ほぼ同じテキストが複数出力されるためである.また,DLBS はDBS よりXSum が 1.07 ポイント,WMT19 が 0.71 ポイント低かった.これは,DLBSが出力をさらに多様化する効果があることを示している。一方,品質に関する評価尺度である ChatGPT-Score は WMT19 では 1.78 ポイント低下したが,XSum はほぼ同じであった。ここからほとんどの場合 DBS を使用し,多様性がより重要な場合にのみ DLBS を使用することが適切であることがわかる。事例分析については Appendix 7.1 を参照されたい.
## 5 関連研究
Text infilling $[16,17,18,19]$ はテキストの欠落部分を生成するタスクである. Text infilling は特定の区間のテキストを書き直すと言う点で我々の提案する書き換えタスクと類似している。一方で,Text infilling は周囲の文脈のみを利用してテキストの欠落部分を生成するのに対し,我々のタスクは書き換え対象のテキストの特性を満たすように生成する.
周囲の文脈と明示的に結びついた文章を生成する手法として,[2] は,順方向と逆方向の 2 つの言語モデルを用いる手法を提案した. SAGen は復号手法を拡張することでこれを実現しており,追加のモデルの学習やデータセットを必要としない.
Paraphrasing は教師なし手法 $[20,21,22,23]$ と教師あり手法 [24, 25, 26, 3,4] に分けられる. Paraphrase タスクは任意のテキストを書き換えるが,我々の夕
スクは書き換え対象が特定の言語モデルの出力であるため,その言語モデルに入力されたテキストも考慮した上で書き換えを行う違いがある。
復号手法は言語モデルがテキストを生成する仕組みである。復号手法の一つである BS は貪欲な復号手法より良いテキストを生成することが報告されている [27]. さらに BS を拡張する多くの手法が提案されている $[28,6,29]$. 後方の文脈を考慮する復号手法として SAGen を提案し,またBS の拡張として長さを考慮するDLBSを提案した。
校正は高品質な文章を書くために不可欠なプロセスであり,人間と機械が分担して校正を行う取り組みが多くなされている $[30,5,31,1]$. これらの研究では,人がすべての校正作業を行うよりも,機械と共同作業を行う方が効率的であることが報告されている. SAGen はこのような校正作業に利用できる.
## 6 まとめ
我々は言語モデルによって生成されたテキストの任意の区間を書き換えるタスクに取り組み,対象区間の書き換え候補を生成する手法 SAGen を提案した. SAGen の有効性を検証するために,要約と翻訳の 2 つのタスクで学習した言語モデルによって生成されたテキストに対して実験を行い,SAGenが品質と多様性の点でべースラインを上回ることを示した. SAGen は,モデルの学習やデータセットの作成を行うことなく,任意の言語モデルによって生成されたテキストを書き換えることができるため,多くの場面で校正に貢献できる.
## 参考文献
[1] Wanyu Du, Zae Myung Kim, Vipul Raheja, Dhruv Kumar, and Dongyeop Kang. Read, revise, repeat: A system demonstration for human-in-the-loop iterative text revision. In Proc. In2Writing, pp. 96-108, 2022.
[2] Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, and Yejin Choi. Reflective decoding: Beyond unidirectional generation with off-the-shelf language models. In Proc. ACL-IJCNLP, pp. 1435-1450, 2021.
[3] Wanyu Du, Vipul Raheja, Dhruv Kumar, Zae Myung Kim, Melissa Lopez, and Dongyeop Kang. Understanding iterative revision from human-written text. In Proc. ACL, pp. 3573-3590, 2022.
[4] Zae Myung Kim, Wanyu Du, Vipul Raheja, Dhruv Kumar, and Dongyeop Kang. Improving iterative text revision by learning where to edit from other revision tasks. In Proc. EMNLP, pp. 9986-9999, 2022.
[5] Mina Lee, Percy Liang, and Qian Yang. Coauthor: Designing a human-ai collaborative writing dataset for exploring language model capabilities. In Proc. CHI, 2022.
[6] Ashwin K. Vijayakumar, Michael Cogswell, Ramprasaath R. Selvaraju, Qing Sun, Stefan Lee, David J. Crandall, and Dhruv Batra. Diverse beam search: Decoding diverse solutions from neural sequence models. CoRR, Vol. abs/1610.02424, , 2016.
[7] Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, and Sergey Edunov. Facebook FAIR's WMT19 news translation task submission. In Proc. WMT, pp. 314-319, 2019 .
[8] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proc. EMNLP, pp. 1797-1807, 2018.
[9] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Proc. Text Summarization Branches Out, pp. 74-81, 2004.
[10] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. ACL, pp. 311-318, 2002.
[11] Ricardo Rei, José G. C. de Souza, Duarte Alves, Chrysoula Zerva, Ana C Farinha, Taisiya Glushkova, Alon Lavie, Luisa Coheur, and André F. T. Martins. COMET-22: Unbabel-IST 2022 submission for the metrics shared task. In Proc. WMT, pp. 578-585, 2022.
[12] Mingqi Gao, Jie Ruan, Renliang Sun, Xunjian Yin, Shiping Yang, and Xiaojun Wan. Human-like summarization evaluation with chatgpt. CoRR, Vol. abs/2304.02554, , 2023.
[13] Tom Kocmi and Christian Federmann. Large language models are state-of-the-art evaluators of translation quality. In Proc. EAMT, pp. 193-203, 2023.
[14] Yaoming Zhu, Sidi Lu, Lei Zheng, Jiaxian Guo, Weinan Zhang, Jun Wang, and Yong Yu. Texygen: A benchmarking platform for text generation models. In Proc. SIGIR, p. 1097-1100, 2018.
[15] Angela Fan, Mike Lewis, and Yann Dauphin. Hierarchical neural story generation. In Proc. ACL, pp. 889-898, 2018.
[16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACL, pp. 4171-4186, 2019.
[17] Chris Donahue, Mina Lee, and Percy Liang. Enabling language models to fill in the blanks. In Proc. ACL, pp. 2492-2501, 2020 .
[18] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Proc. TACL, Vol. 8, pp. 64-77, 2020.
[19] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proc. ACL, pp. 7871-7880, 2020.
[20] Dekang Lin and Patrick Pantel. Dirt @ sbt@ discovery of inference rules from text. In Proc. KDD, p. 323-328, 2001.
[21] Stanley Kok and Chris Brockett. Hitting the right paraphrases in good time. In Proc. NAACL, pp. 145-153, 2010.
[22] Jonathan Mallinson, Rico Sennrich, and Mirella Lapata. Paraphrasing revisited with neural machine translation. In Proc. EACL, pp. 881-893, 2017.
[23] Aurko Roy and David Grangier. Unsupervised paraphrasing without translation. In Proc. ACL, pp. 6033-6039, 2019.
[24] Aaditya Prakash, Sadid A. Hasan, Kathy Lee, Vivek Datla, Ashequl Qadir, Joey Liu, and Oladimeji Farri. Neural paraphrase generation with stacked residual LSTM networks. In Proc. COLING, pp. 2923-2934, 2016.
[25] Ankush Gupta, Arvind Agarwal, Prawaan Singh, and Piyush Rai. A deep generative framework for paraphrase generation. In Proc. AAAI, 2018.
[26] Jonathan Mallinson, Aliaksei Severyn, Eric Malmi, and Guillermo Garrido. FELIX: Flexible text editing through tagging and insertion. In Find. EMNLP, pp. 1244-1255, 2020.
[27] Markus Freitag and Yaser Al-Onaizan. Beam search strategies for neural machine translation. In Proc. NGT Workshop, pp. 56-60, August 2017.
[28] Chris Hokamp and Qun Liu. Lexically constrained decoding for sequence generation using grid beam search. In Proc. ACL, pp. 1535-1546, 2017.
[29] Tong Niu, Semih Yavuz, Yingbo Zhou, Nitish Shirish Keskar, Huan Wang, and Caiming Xiong. Unsupervised paraphrasing with pretrained language models. In Proc. EMNLP, pp. 5136-5150, 2021.
[30] Vishakh Padmakumar and He He. Machine-in-the-loop rewriting for creative image captioning. In Proc. NAACL, pp. 573-586, 2022.
[31] Nikhil Singh, Guillermo Bernal, Daria Savchenko, and Elena L. Glassman. Where to hide a stolen elephant: Leaps in creative writing with multimodal machine intelligence. Proc. ACM Trans. Comput.-Hum. Interact., Vol. 30, No. 5, 2023.
## 7 付録 (Appendix)
## 7.1 事例分析
各タスクの出力例を分析するために,モデルの尤度が最も高い上位 3 つのケースを示す. XSum の例 (表. 2)では,BART の出力はソース文の内容と乘離した文章を出力してしまっており, DElIteraTeR の出力は表面的な書き換えに過ぎない。一方,SAGen の最初の出力は,警察車両の窃盗に言及しておらず, 3 番目の出力は, 2 人の若者が「加重車両窃盗」で起訴されているという新しい情報を追加しているこの例から, SAGen の出力は内容レベルで多様な出力ができていると言える.
WMT19 の例 (表. 3)においても,BART の出力はソース文と乘離していた. DElIteraTeR の出力は書き換えとして問題ないが,文字 ”ß”を出力できていない.これは,DElIteraTeR が扱える語彙に”队”がないために生じたミスである。一方,SAGen は言い換え対象を生成したモデルを用いているため,正しく書き換えられている。これは,タスクごとに finetune されたモデルをそのまま利用する SAGen の優位性を示している。
\\
conpection with an incident in north \\
Belfast. \\
Two teenagers have been charged in \\
connection with an attempted carjack- \\
ing in north Belfast. \\
Two teenagers have been charged with \\
aggravated vehicle taking following an \\
incident involving a police car in north \\
Belfast.
表 2 Xsum の出力例. prefix と suffix をbold で示している.
\\
表 3 WMT19 の出力例. prefix と suffix を bold で示している. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A9-2.pdf | # R2T: 言語モデルの確率操作による学習なし中間文生成
城戸晴輝 前川在 小杉哲 船越孝太郎 奥村学
東京工業大学
\{haruki, maekawa, kosugi, funakoshi, oku\}@lr.pi.titech.ac.jp
## 概要
中間文生成は,損傷した文章の復元,記事の執筆のような多くの状況で役立つ一般的なタスクであるものの十分な研究が行われていない [1]. 本研究では,表面的なパターンを学習してしまうことや,近年の言語モデルのサイズの増加に伴い学習にコストがかかることなどの,教師あり学習モデルの持つ問題を回避するため,学習なしでの中間文生成に取り組む. 手法としては,最後の文の埋め込みと各語彙トークンの埋め込みとのコサイン類似度を,自己回帰言語モデルが次トークンを予測する際に使用する語彙の対数確率に足し合わせるという単純なものである。これはあらゆる自己回帰言語モデル,復号化アルゴリズムに対して適用可能な Plug-and-Play な手法である. 実験の結果,これまでの学習なし中間文生成手法と比較して,計算コストが十分に少なく,自動評価において大幅に上回る指標があるなど,新たな中間文生成の手法としての可能性を示した.
## 1 はじめに
中間文生成は,文や段落の欠落した文章を補完するテキストを生成することを目的としたタスクである. 中間文生成の主な手法として, GPT2 [2]のような事前学習済みモデルの fine-tuning $[3,4,5]$ や,ゼロから学習を行う $[3,4,6]$ などの方法が挙げられる. しかし,大きなデータセットにより教師あり学習を行なってもなお,データセットに固有の表面的なパターンを学習してしまう [7]ことや,現在の言語モデルは 540B パラメータのもの [8] が出てくるなど,非常に巨大になっていることから,それと性能的に匹敵するモデルをゼロから学習したり,既存の事前学習済みモデルを fine-tuning するのにも多くのコストがかかることなど多くの問題が存在する. そこで本研究では,現在最も支配的なパラダイムである GPTのような,左から右への推論を行い,与えられたテキストの次に来るトークンを予測するモデルで
ある自己回帰言語モデルにおいて,追加での学習なしに中間文生成を行うことが可能であり,あらゆる自己回帰言語モデルや復号化アルゴリズムに対して適用可能な手法を提案する。
追加での学習を必要としないこれまでの中間文生成手法として,TIGS [9] や DELOREAN [10], COLD [11] が挙げられる. しかし,これらの手法は,最適化のために多くのステップを必要としたり,複数の候補文の生成を行う必要があるなど計算コストが大きいという問題がある.本提案手法では,自己回帰言語モデルが事前学習により獲得しているトー クンの埋め込みべクトルを活用し,追加の学習を必要としない中間文生成を行う,具体的には,最後の文の各トークンとのコサイン類似度をモデルが出力する次トークンの対数確率に加算することで,これまでの文との継続性とともに最後の文を考慮して中間文を生成するという単純なものであり,通常の左から右への推論と同等の計算コストで生成を行うことができる.
実験は,1 文の中間文からなる ARTDataset と,3 文の中間文からなる ROCStories の 2 つのデータセッ卜を使用して行なった. ARTDatasetを使用した実験では,学習なし中間文生成の先行手法である COLD と DELOREAN との比較を行い,自動評価において提案手法の一定の有効性を確認した。さらに,計算コストの面でも DELOREAN や COLD に比べて 100 倍以上高速であることを確認した.ROCStories を使用した実験では先行手法と同様に複数の中間文生成にも拡張可能であることを確認し,今後の課題をより明確にした。
## 2 関連研究
TIGS は勾配情報を利用して中間文のベクトルを決定し,それを語彙ベクトルに離散化することで中間文を生成するものである.DELOREAN は通常の順伝播でこれまでの文との流暢な継続性を保証するだけでなく,逆伝播によりこれからの文に制約を
I jumped for joy. My mother said I could have a cat 1文目生成された中間文
図 1 R2T の図解. 1 文目として I jumped for joy. が,3 文目として Because it was my dream to have a cat. が与えられ,中間文として My mother said I could have a まで生成された時の score の値 $(\lambda=7)$. 自己回帰言語モデルに I jumped for joy. My mother said I could have a を入力として与え score を得る. これに対しBecause it was my dream to have a cat. に含まれる全トークンとのコサイン類似度の最大値に $\lambda$ をかけたものを足し合わせることで確率分布を編集し中間文生成を行う。
付与することで,中間文の生成を実現する。COLD は,エネルギーベースモデルを利用し,これにこれまでの文脈と一貫性があり,最後の文とも一貫性があることを保証するような制約関数を導入することで中間文の生成を実現している。これらの学習なし中間文生成手法における共通の課題として, 計算コストが大きいことが挙げられる.こうした既存手法の問題点を解決するために,この論文では生成時に最適化を一切必要としない単純な手法を提案する。
## 3 提案手法
本研究では,従来の左から右への推論を行う自己回帰言語モデルに対して,中間文生成,つまり,最後の文を考慮してこれまでの文の続きを生成するための手法として Right sentence to Text(R2T)を提案する(図 1)。これは,K2T [12]を中間文生成タスクに応用する試みである.K2T は, word2vec [13] などの単語埋め込みを利用し,ガイド単語に意味的に近い単語の対数確率を増加させることにより, 一切追加での学習をすることなくガイド単語の出現制約を満たすテキスト生成を行うものである。 さらに,中間文生成に関連する先行研究 [14] によると,コンテキスト RNNの入力に対し,入力された文から生成された文の分散表現だけでなく, 最後の文の分散表現を加算することで,より良い中間文生成が可能になるという結果が得られている.
これらの先行研究を組み合わせ,自己回帰言語モデルが次のトークンを予測する際に使用する語彙の表 1 ARTDataset の例
表 2 ROCStories の例
対数確率 $\operatorname{score}\left(y_{t} \mid \mathbf{y}_{<t}\right)$ に対して,最後の文 $\mathbf{s}$ の埋め込みとのコサイン類似度を加算することを考える。 ここで score $\left(y_{t} \mid \mathbf{y}_{<t}\right)$ は Logits に対して log_softmax を適用したものであり, $\mathbf{y}_{<t}$ は 1 文目とそれまでに生成された文, $y_{t}$ は次に生成するトークンの候補である. score は Softmax 関数にかけられ,次トークン $y_{t}$ の確率として機能する. ここで,最後の文の埋め込みとのコサイン類似度を,最後の文に含まれる全トークンの埋め込みとのコサイン類似度のうち最大のものとすると,次のように score の編集を定式化することができる。また, $\gamma$ (token) は token を事前学習済み自己回帰言語モデルが獲得しているトークンの埋め込みベクトルに変換したものである.
$
\begin{aligned}
& \operatorname{score}^{\prime}\left(y_{t}, \mathbf{s} \mid \mathbf{y}_{<t}\right)=\operatorname{score}\left(y_{t} \mid \mathbf{y}_{<t}\right) \\
& \quad+\lambda_{i} \cdot \max \left(0, \max _{\text {token } \in \mathbf{s}} \cos \left(\gamma\left(y_{t}\right), \gamma(\text { token })\right)\right)
\end{aligned}
$
ここで,最後の文の影響の強弱は中間文の各文目ごとに $\lambda_{i}$ で制御することができる. 特に, $\lambda_{i}=0$ においては $\operatorname{score}^{\prime}\left(y_{t}, \mathbf{s} \mid \mathbf{y}_{<t}\right)=\operatorname{score}\left(y_{t} \mid \mathbf{y}_{<t}\right)$ であり, score の編集の影響を受けず,素の自己回帰言語モデルと同じ scoreを取る. また,生成する中間文が $\mathrm{N}$ 文 $(N \geq 2)$ の場合, $\lambda_{i}$ は最後の文からの距離に比例すると近似し, $\lambda_{i}=a+(i-1) \times \frac{b-a}{N-1}$ で求まるとする。特徴としては,モデルが持つトークンの埋め込みを使用するため,追加での学習なしに中間文生成が可能であることと,任意の自己回帰言語モデルや復号化アルゴリズムに適用できることが挙げられる. また,モデルが出力する score に対し,最後の文に含まれる全トークンの埋め込みとのコサイン類似度のうち最大のものに入をかけたものを足し合わせるだけの単純な手法であるため,計算コストは素の自己回帰言語モデルと同等である.
表 3 ARTDataset のテストデータにおける R2T の自動評価結果と先行研究との比較. 上から 3 つの手法は [11] における Reported Score である. LEFT-ONLY に関しては, R2T と同じ $p=0.9$ の核サンプリングを用いた場合と比較した。また,実際に 1 つの物語の中間文の生成に要した時間を計測した。
## 4 実験
## 4.1 データセット
実験には, ARTDataset [15] と ROCStories [16]の2つのデータセットを使用した. ARTDataset は,学習なしで中間文生成を行う先行研究である DELOREAN, COLD の実験環境と一致させ,Reported Score との比較を行う目的で使用し, ROCStories は先行手法と同様に複数文の中間文生成にも拡張可能かを確認する目的で使用した。
ARTDataset は, ROCStories から抽出された, 1 文目と 3 文目に対応する $O b s_{1}, O b s_{2}$ と,その中間文である 2 文目に対応する Hyp などが含まれたデー タセットである(表 1)、入のチューニングのため検証データ(7,252 件)を,評価のためテストデータ (14,313 件)を使用した。
ROCStories は,5 文のコモンセンスストーリー からなるデータセットである(表 2). ROCStories Winter 2017 の全データ 52,665 件のうち, ランダムに 1,000 件を抽出したものを検証データとして使用し,さらに検証データを除いた 51,665 件の中からランダムに 1,000 件を抽出したものをテストデータとして使用した.また,同じデータセットに対し 10 回生成と評価を行い,その平均を結果とした。
## 4.2 評価指標
先行研究 [11] を参考に, BLEU4 [17], METEOR [18], ROUGE [19], CIDEr [20], BERTScore [21] の 5 つを評価指標とした。また,生成テキストの 3-gram の繰り返しを測る Repetition Percentage (RP),最初と最後の文の 3-gram と生成テキストの 3-gram の重複率を測る Overlap Percentage (OP) の 2 つを追加で導入した。表 4 ROCStories のテストデータにおける素の gpt2-xl と R2T の自動評価の結果.
## 4.3 実験設定
先行研究 [11]を参考に, ベースの自己回帰言語モデルとして gpt2-xl を使用した. 復号化アルゴリズムとしては $p=0.9$ の核サンプリング [22]を使用した.
文の終端の判定には,nltk ライブラリの sent_tokenize ${ }^{1)}$ を用いた (付録 A)。なお,データセットが有する問題(付録 B)に対処するため,生成されたテキストの 1 トークン目がピリオドである場合は,削除し文の終端の判定を行っている.付録 A により定義された条件を満たさないテキストが生成された場合は,生成されるまで繰り返し生成を行った.また,入が大きくなると,最後の文にピリオドがなく生成されたテキストが文として終了しないという問題が発生した( $\lambda=10$ においては $0.2 \%$ 程度の確率)。これに対処するためにピリオドトークンの有無に関わらず,最後の文に対してはピリオドトークンを追加した。
ARTDataset については,検証データにおける結果 (付録 C)から, $\lambda_{1}=7$ を採用し,ROCStories については, $(a, b)=(2,8)$, つまり $\left(\lambda_{1}, \lambda_{2}, \lambda_{3}\right)=(2,5,8)$ を採用した(付録 D).
## 5 結果
ARTDataset 表 3 は DELOREAN と COLD の Reported Score と本手法 R2T のテストデータにおける評価結果である. これから,提案手法である R2T は, 素の gpt2-xl と比べて中間文生成の自動評価が全て改善されていることがわかる. また,提案手法と COLD を比較すると, CIDEr を除いて劣るものの, CIDEr に関しては先行手法を大幅に上回っている. また,改善幅で見ると,BERTScore の改善幅は先行手法の半分程度であるものの,BLEU4 と ROUGEL に関してはほぼ同等である。
CIDEr において提案手法 R2T が高い性能を示している理由として, CIDEr は TF-IDF という他のテキストにおける出現確率を考慮した n-gram の一致率を評価していることが挙げられる. R2T は最後の
表 5 ARTDataset のテストデータにおける R2T による生成例. 3 文目との共通単語を太字で強調している
表 6 ROCStories のテストデータにおける R2T による生成例. 5 文目との共通単語を太字で強調している.
& & & \\
文に存在するトークンの出現確率を強制的に増加させており, 各物語に固有な単語が出現する場合が多い. 例えば表 5 の New Zealand という単語は他の物語では出現頻度が低いが,提案手法は最後の文の単語の出現確率を増加させることで,このような出現頻度の低い単語も正確に予測できているため, CIDEr は高い值を達成できている. n-gram の一致率が先行手法に比べて低い理由としては, 事前学習により獲得している尤もらしいテキストの生成能力が score の編集により減少していることが理由として考えられる. BERTScore が先行手法に比べて半分程度の改善しか見られなかった理由としては最後の文の影響が少ないことが考えられる.現手法では,元の自己回帰言語モデルの確率分布によらずコサイン類似度を足し合わせているので,入が大きくなるにつれ繰り返しが増加するなどの問題が起きやすく十分に最後の文の影響を強めることができなかったと考えられる.この問題は元の自己回帰言語モデルの出力した確率分布をさらに活用することで解消できる可能性がある。
生成にかかる時間を見ると, DELOREAN や COLD は最適化のために多くのステップを必要とするため, GeForce RTX 3090 においては数分から数十分程度を必要とするが,提案手法においては素の gpt2-xl による左から右への推論にかかる時間と同程度の 1 秒で生成が完了する. このことから, 先行手法に比べて 100 倍以上高速に中間文が生成可能であり,より現実のアプリケーションに使用しやすくなることが想定される。
表 5 が ARTDataset を元に R2T により生成された実際のテキストである.参照テキストと最後の文との共通部分が多い場合に,この手法が特に有効に働くことがわかる. 2 つ目の生成例をみると, 従来の左から右への推論では生成されなかったであろう New Zealand という具体的な旅行先が正しく生成さ
れていることがわかる.ただし,素の自己回帰言語モデルが獲得している文法的な正しさなどを無視して強制的に対数確率にコサイン類似度を加算しているので,I was a small town.のような不適切な文が生成される場合もある。
ROCStories 表 4 より,複数の中間文を生成する場合についても素の gpt2-xl に比べ,中間文生成の自動評価は全て改善されていることがわかる。さらに,複数文からなる中間文については,中間文生成に関連する先行研究 [14] と同様に,最後の文に近づくにつれ最後の文の影響を強めることでより良い中間文生成が可能になることも示している.
表 6 が ROCStories を元に R2T により生成された実際のテキストである. ROCStories は ARTDataset に比べ,最初の文と最後の文に距離があり,中間文の自由度が高い,そのため,単純に最後の文に含まれる全トークンとのコサイン類似度を足し合わせるだけでは,中間文が最後の文に対し意味的に一貫していない場合が多いことがわかる.
## 6 おわりに
本稿では教師あり学習モデルの持つ問題を回避するために,追加での学習を必要としない中間文生成手法である R2T を提案した. 実験により,自動評価において R2T が素の自己回帰言語モデルよりも中間文の生成能力が高いことや,先行手法に対して計算コストが十分少ないにも関わらず,評価指標 CIDEr においては大幅な改善が見られることなど新たな中間文生成の手法としての可能性を示した. 今後として,単純にコサイン類似度を足し合わせるだけでなく元の確率分布をより効率的に活用した方法によって言語モデルが持つさまざまな能力を活かした中間文生成手法を実現し,最後の文との意味的な一貫性の向上を目指す予定である.
## 参考文献
[1] Wanrong Zhu, Zhiting Hu, and Eric P. Xing. Text infilling. arXiv preprint arXiv:1901.00158, 2019.
[2] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[3] Mohammad Bavarian, Heewoo Jun, Nikolas A. Tezak, John Schulman, Christine McLeavey, Jerry Tworek, and Mark Chen. Efficient training of language models to fill in the middle. arXiv preprint arXiv:2207.14255, 2022.
[4] Chris Donahue, Mina Lee, and Percy Liang. Enabling language models to fill in the blanks. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2492-2501, Online, July 2020. Association for Computational Linguistics.
[5] Pengjie Wang, Liyan Wang, and Yves Lepage. Generating the middle sentence of two sentences using pre-trained models: a first step for text morphing. In Proceedings of the 27th Annual Conference of the Association for Natural Language Processing, pp. 1481-1485, 2021.
[6] Anh Nguyen, Nikos Karampatziakis, and Weizhu Chen. Meet in the middle: A new pre-training paradigm. arXiv preprint arXiv:2303.07295, 2023.
[7] Lianhui Qin, Antoine Bosselut, Ari Holtzman, Chandra Bhagavatula, Elizabeth Clark, and Yejin Choi. Counterfactual story reasoning and generation. In Kentaro Inui, Jing Jiang, Vincent $\mathrm{Ng}$, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5043-5053, Hong Kong, China, November 2019. Association for Computational Linguistics.
[8] Aakanksha Chowdhery, Sharan Narang, Jacob Devlin, Maarten Bosma, Gaurav Mishra, Adam Roberts, Paul Barham, Hyung Won Chung, Charles Sutton, Sebastian Gehrmann, Parker Schuh, Kensen Shi, Sasha Tsvyashchenko, Joshua Maynez, Abhishek Rao, Parker Barnes, Yi Tay, Noam M. Shazeer, Vinodkumar Prabhakaran, Emily Reif, Nan Du, Benton C. Hutchinson, Reiner Pope, James Bradbury, Jacob Austin, Michael Isard, Guy GurAri, Pengcheng Yin, Toju Duke, Anselm Levskaya, Sanjay Ghemawat, Sunipa Dev, Henryk Michalewski, Xavier García, Vedant Misra, Kevin Robinson, Liam Fedus, Denny Zhou, Daphne Ippolito, David Luan, Hyeontaek Lim, Barret Zoph, Alexander Spiridonov, Ryan Sepassi, David Dohan, Shivani Agrawal, Mark Omernick, Andrew M. Dai, Thanumalayan Sankaranarayana Pillai, Marie Pellat, Aitor Lewkowycz, Erica Moreira, Rewon Child, Oleksandr Polozov, Katherine Lee, Zongwei Zhou, Xuezhi Wang, Brennan Saeta, Mark Díaz, Orhan Firat, Michele Catasta, Jason Wei, Kathleen S. Meier-Hellstern, Douglas Eck, Jeff Dean, Slav Petrov, and Noah Fiedel. Palm: Scaling language modeling with pathways. J. Mach. Learn. Res., Vol. 24, pp. 240:1-240:113, 2022.
[9] Dayiheng Liu, Jie Fu, Pengfei Liu, and Jiancheng Lv. TIGS: An inference algorithm for text infilling with gradient search. In Anna Korhonen, David Traum, and Lluís Màrquez, editors, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp.4146-4156, Florence, Italy, July 2019. Association for Computational Linguistics.
[10] Lianhui Qin, Vered Shwartz, Peter West, Chandra Bhagavatula, Jena D. Hwang, Ronan Le Bras, Antoine Bosselut, and Yejin Choi. Back to the future: Unsupervised backprop-based decoding for counterfactual and abductive commonsense reasoning. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in
Natural Language Processing (EMNLP), pp. 794-805, Online, November 2020. Association for Computational Linguistics.
[11] Lianhui Qin, Sean Welleck, Daniel Khashabi, and Yejin Choi. Cold decoding: Energy-based constrained text generation with langevin dynamics. In S. Koyejo, S. Mohamed, A. Agarwal, D. Belgrave, K. Cho, and A. Oh, editors, Advances in Neural Information Processing Systems, Vol. 35, pp. 9538-9551. Curran Associates, Inc., 2022.
[12] Damian Pascual, Beni Egressy, Clara Meister, Ryan Cotterell, and Roger Wattenhofer. A plug-and-play method for controlled text generation. In Marie-Francine Moens, Xuanjing Huang, Lucia Specia, and Scott Wen-tau Yih, editors, Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 3973-3997, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics.
[13] Tomas Mikolov, Kai Chen, Gregory S. Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In International Conference on Learning Representations, 2013.
[14] 飯倉陸, 岡田真, 森直樹. 潜在変数付き階層型エンコー ダ・デコーダモデルに基づく物語の補完的生成手法の提案. 人工知能学会全国大会論文集, Vol. JSAI2021,pp. 3D4OS12c03-3D4OS12c03, 2021.
[15] Chandra Bhagavatula, Ronan Le Bras, Chaitanya Malaviya, Keisuke Sakaguchi, Ari Holtzman, Hannah Rashkin, Doug Downey, Wen tau Yih, and Yejin Choi. Abductive commonsense reasoning. In International Conference on Learning Representations, 2020.
[16] Nasrin Mostafazadeh, Nathanael Chambers, Xiaodong He, Devi Parikh, Dhruv Batra, Lucy Vanderwende, Pushmeet Kohli, and James Allen. A corpus and cloze evaluation for deeper understanding of commonsense stories. In Kevin Knight, Ani Nenkova, and Owen Rambow, editors, Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 839-849, San Diego, California, June 2016. Association for Computational Linguistics.
[17] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Pierre Isabelle, Eugene Charniak, and Dekang Lin, editors, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[18] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Jade Goldstein, Alon Lavie, Chin-Yew Lin, and Clare Voss, editors, Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics.
[19] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 7481, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[20] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4566-4575, 2015.
[21] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020.
[22] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In International Conference on Learning Representations, 2020.
表 7 ピリオドがない例
表 8 ARTDataset の検証データにおける R2T の $\lambda_{1}$ の值による自動評価の結果
## A 一文の定義
左から右への推論を行う自己回帰言語モデルは, 過去のテキストの続きを生成するのみであるため,どのように文の終端を判定するかは重要な問題である. 本実験では,過去の文の続きを 20 トークン生成し,その生成されたテキストが nltkライブラリの sent_tokenize により, 2 文以上に分割され,かつその 1 文目が 2 トークン以上である場合にそれを一文とみなす。例として,"I have a cat.”を入力としたときに,"It is cute. The cat is ..."という文が生成された場合,"It is cute."を次の一文とする。
## B ARTDataset における問題
本研究において, 第 4 節で使用した ARTDataset $の$ dev-w-comet-preds と test-w-comet-preds について, 表 7 のように,ピリオドが不適切に存在しないテキストが全体の $1 \%$ 程度見受けられた. 本手法において, ピリオドが不適切に存在しないテキストを入力として与えられた時に次のトークンとしてピリオドを生成する場合が多く見られた。これは sent_tokenizeにより1トークン目を文の終端と判断されてしまうものの,1トークンからなる文であるため本実験における一文の定義(付録 A)と外れてしまうため,再度生成が行われ,ループ状態に陥る. そこで今回は生成された中間文の 1 トークン目がピリオドである場合はそれを削除したのちに文の終端の判定を行っている. これは ARTDataset の元のデータセットである ROCStories (ROCStories spring2016)にも共通する問題である.
## C ARTDatasetにおける $\lambda$ の決定
表 8 の結果より,傾向としては以下が見られる.
・BLEU $4: \lambda_{1}=7$ まで増加
- ROUGE_L: $\lambda_{1}=7$ まで増加し, 以降減少
- CIDEr: $\lambda_{1}$ の増加とともに単調に増加
- BERTScore: $\lambda_{1}=7$ まで増加
-METEOR: $\lambda_{1}=6$ まで増加し, 以降減少
- RP, OP: $\lambda_{1}$ の増加とともに単調に増加
以上より, $\lambda_{1}=7$ を採用した。表 9 ROCStories の検証データにおける R2Tの $(a, b)$ の值による自動評価の結果. BERTScore について降順で上位 7 件.
表 10 ARTDataset の少量の検証データにおける R2T の $\lambda_{1}$ の値による自動評価の結果
## D ROCStories における $\lambda$ の決定
ROCStories において中間文は 3 文であるので, $\lambda_{i}=$ $a+(i-1) \times \frac{b-a}{2}$ から, $\left(\lambda_{1}, \lambda_{2}, \lambda_{3}\right)=\left(a, \frac{a+b}{2}, b\right)$ と置き換えることができるため,この $(a, b)$ の値を決定する。表 9 より $(a, b)=(2,8)$ と決定され, $\left(\lambda_{1}, \lambda_{2}, \lambda_{3}\right)=(2,5,8)$ を採用した.
表 11 ARTDataset のテストデータにおける少量のデータセットで決定された $\lambda_{1}=6$ を使用した R2T の自動評価の結果.
## E 少量の検証データによる $\lambda$ の決定
本手法の最も重要な特徴として,学習なしで実現可能なことを挙げているが,入を適切な值に設定しないと, 繰り返しが増加したり, 本研究で示した性能を下回る性能を示してしまうことが考えられる。本研究では $\lambda$ の値を設定するために,第 4 節において,ARTDataset の dev-w-comet-preds(7,252 件)を使用している. しかしこれだけのデータセットを集めること自体にコストが発生する. そこで dev-w-comet-preds の中からランダムに抽出した 20 件の小規模なデータセットを使用し $\lambda$ の決定を行い, 本実験で示した自動評価の値と比較を行う. 表 10 より $\lambda=6$ と決定され,これをテストデータにより評価すると表 11 のようになる. 本論文中で使用した $\lambda_{1}=7$ の性能と比較すると BLEU4, CIDErでは $85 \%$ 程度の性能を示し, ROUGE,BERTScore,METEOR では同程度の性能を示している.これらから,少ないデータセットを使用し入の値を設定してもなお,本論文で示した性能と類似した性能を示すことが可能であることが確認された. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A9-3.pdf | # Advancing Robustness and Instruction-following in LLM-Powered Multi-Style Text Rewritting
Yan Li Guangjun Wang Gang Qiao Zhenpeng Zhan
GBU,BaiduInc,China,518052
\{liyan79,wanngguangjun,qiaogang01,zhanzhengpeng01\}@baidu.com
}
\begin{abstract}
Now people frequently aim to polish their language or modify their text while using a mobile keyboard. However, leveraging large language models (LLMs) for multi-style text rewriting poses challenges, including semantic alteration, semantic addition, and task confusion, these challenges stem from the model's shortcomings in effectively following instructions and its lack of robustness. Particularly evident in handling non-standard, informal English rewrite requests, reflecting weaknesses in the model's robustness. To address these challenges, this study introduces a methodology that enriches training data with both positive and negative rewrite instances, accompanied by corresponding rationales. This approach aims to strengthen the model's discriminative capabilities. Additionally, adding Noisy Embedding during training is employed to enhance the model's robustness. Experiments validate the effectiveness of our methods in improving model directive adherence and robustness.
\end{abstract
## 1 Introduction
In the era of mobile internet, social interactions on social apps are increasingly important. Expressing oneself with high emotional intelligence is a key aspect of social skills. Our analysis suggests that witty and creative language is well-received by people. With the success of GPT, domain-specific custom large language models are rapidly emerging in various fields, empowering numerous industries such as the internet, healthcare, and finance. Against this backdrop and considering the product form of mobile keyboard, we undertook a reevaluation and redesign of the keyboard functionality. Our analysis revealed that the younger generation of people not only has basic input needs but also a significant demand for personalized expression. Based on this insight and leveraging the technological advantages of LLM, we introduced the generation of long sentences or passage-level content into the keyboard functionality. This shift focuses on creatively rewriting input content to provide a more engaging and personalized input experience, satisfying the needs of the young people demographic.
Considering our research goals and challenges, we primarily approached the construction of the instruction dataset and training method. Addressing issues about semantic alteration, semantic addition, task confusion and poor generalization, we include both positive and negative rewrite examples in our own field-data, requiring the model to analyze the quality of examples and provide explanations. This is aimed at enhancing the self-developed large model's understanding of negative-class tasks, strengthening its ability to accurately follow instructions. Additionally, we introduce noise embedding during training to improve the model's robustness in handling misspelled words and non-formal English. We conducted experiments, evaluated by GPT-4 and three native English-speaking professionals, demonstrating a $2.3 \%$ reduction in the model's generation of incorrect rewrite results, and achieved a $0.25 \%$ improvement in rewriting quality.
## 2 Related Work
In the area of fine-grained text rewriting, Wu et al. [1] have made significant contributions with their work on a hierarchical reinforcement learning-based method for unsupervised text style transfer. Their approach, which employs a high-level agent to pinpoint locations for stylistic edits and a low-level agent to implement these
modifications, provides a structured mechanism for altering text in line with specific style requirements without the need for parallel training data. Building on such unsupervised techniques, Raffel et al. [2] have demonstrated the adaptability of the $\mathrm{T} 5$ model to a range of natural language tasks, including style transfer. By pre-training on a large corpus and subsequently fine-tuning on texts representative of the target style, the T5 model effectively captures and generates text with the desired stylistic nuances. This showcases the model's potential for applications that aim to rewrite text to conform to various stylistic guidelines.
## 3 Method
In this section, we mainly introduce the attempts made to address the aforementioned rewriting issues, as well as our evaluation methods and results.
## 3.1 Challenges
We have identified several challenges in using state-of-the-art models like llama2 and GPT-3.5 for multi-style text rewriting tasks. Despite their advanced capabilities, these models often generate unsatisfactory results not only due to limitations in their inherent knowledge, but also due to various other rewriting issues. Specifically, we have observed the following problems:
1. Poor Generalization to non-formal English: Both models have difficulty with informal language, limiting their ability to generate natural-sounding text in less formal styles.
2. Semantic Alteration: In some instances, the rewritten output diverges significantly from the original meaning of the input, leading to an entirely different message being conveyed, which is not the intent of style transfer.
3. Semantic Addition: The models occasionally introduce unnecessary additional information in the latter part of the rewritten text, which, while related, was not present in the original input and is not required for the task at hand.
4. Task Confusion: There are cases where the models misconstrue the rewriting task as a different NLP task, such as responding to a prompt rather than rewriting it.
## 3.2 Data
In this study utilized three primary types of datasets. Firstly, we employed the official 52,000 utility instruction dataset from Alpaca, created using the Self-Instruct method introduced by Wang et al. [3] This method involves the construction of new instruction adjustment tasks from a small seed task set, followed by the filtration of low-quality tasks to improve dataset quality. However, as the Alpaca dataset alone did not fully meet the expression needs of young people who are currently good at symbolic expression and humorous expression, we augmented the fine-tuned instruction data with field-collected data which is our proprietary high-quality multi-style rewriting dataset. This additional dataset, comprising $32 \mathrm{k}$ entries, was curated by five professional English writers and covers various styles including humor, whimsy, emotion enhancement, and meme-based rewriting. Furthermore, to enhance the distinction between different rewriting styles and bolster the model's instruction compliance, we incorporated both positive and negative examples. These additional $5 \mathrm{k}$ samples were selected by professional English writers based on flawed rewriting results obtained from tests with GPT-3.5 and llama2_alpaca, in accordance with the Chain of Hindsight $(\mathrm{CoH})$ proposed by Liu at al. [4], aiming to train the model to recognize and self-critique instances of semantic alteration, semantic addition, and task confusion in rewriting tasks. The composition of our training data is summarized in the table 1.
Table 1 dataset composition
## 3.3 Robustness
To enhance the robustness of the model, we conducted a sampling analysis of commonly used language among the current younger demographic. Among the 500 sampled inputs, we observed common occurrences of abbreviations, misspellings, and informal colloquial English expressions. The distribution of these language forms indicated that formal written English constituted only $55 \%$ of the inputs. Consequently, we decided to employ the Noisy Embedding Instruction Fine Tuning (NEFT) method [5] during the fine-tuning of the model. There is a common strategy to enhance generalization performance is to introduce random noise into the
embedded vectors, this noise is generated by independently sampling from a uniform distribution between -1 and 1 , and then multiplying the result by a scaling factor. Therefore, we adopted the NEFT method to optimize the rewriting effectiveness for informal English expressions.
## 3.4 Model and Baselines
In our study, we compared the performance of the llama2 model fine-tuned with Alpaca's dataset (llama2_alpaca), GPT-3.5 and llama2 fine-tuned with a combination of Alpaca and our field-collected data (llama2_alpaca_field-data), against a refined version of the llama2 model (ours), this refined version was fine-tuned using the NEFT method and augmented with additional positive and negative examples crafted through the $\mathrm{CoH}$ approach. Our aim was to demonstrate the effectiveness of these approaches in addressing rewriting quality and mitigating semantic alteration, semantic addition, and task confusion issues.
## 3.5 Evaluation Metrics
Our primary evaluation focused on two aspects: rewriting quality and the prevalence of semantic alteration, semantic addition, and task confusion issues. For rewriting quality, we assessed the level of interest, style coherence, appropriateness of generated emojis, and overall diversity, using a scoring system ranging from 1 to 5 to indicate satisfaction. Additionally, we measured the frequency of semantic alteration, semantic addition, and task confusion instances. We employed two evaluation methods: manual assessment by three native English-speaking professionals and an automated assessment using GPT-4. In both cases, the evaluators were tasked with scoring the rewriting results based on predefined quality criteria and identifying instances of semantic alteration, semantic addition, and task confusion. This comprehensive evaluation approach allowed us to effectively gauge the rewriting quality and the prevalence of undesirable rewriting behaviors.
## 4 Experiments
In order to facilitate multi-style text rewriting, we leverage the llama2-7b model for fine-tuning due to its notable balance between performance and efficiency. The llama 2 model, available in 7 billion, 13 billion, and 70 billion parameter versions, offers a suite of options that cater to different computational power and complexity needs. Its Grouped-Query Attention (GQA) mechanism reduces the memory requirements of the Large Language Models (LLMs), lowering the computational cost per byte and allowing for the processing of more requests concurrently.
Additionally, we ensured data balance across different text styles to prevent biases in rewriting results. This involved controlling the quantity of instructions for each style to achieve a balanced distribution, mitigating the risk of the rewriting leaning towards a particular style. Furthermore, as each style was crafted by multiple writers, repetitions of expressions were common, potentially compromising the diversity and generalization capability of the generated results. To address this, we employed n-gram to eliminate repetitive expression forms and enhance result diversity and generalization.
We trained the llama2-7b model for 2 epochs with a batch size of 4 , utilizing a learning rate of $2^{*} 10^{-4}$ and the Adam optimizer, alongside linear scheduling with a warm-up rate of 0.1 .
## 5 Results and Analysis
We randomly selected 531 common language samples used by the younger demographic on social media platforms and generated three rewriting results for each input. As shown in Tables 2 and 3, which present the ratings and assessments of our 1593 rewriting results by both GPT-4 and human evaluators, the inclusion of our proprietary rewriting data has significantly improved the quality of our rewriting compared to using llama2 fine-tuned only with Alpaca, and has slightly surpassed the performance of GPT-3.5. This underscores the effectiveness of our proprietary rewriting data. However, our proprietary data incorporates some commonly used phrases among the younger demographic, thereby addressing certain issues related to semantic alterations, semantic additions, and task confusion. However, it falls short compared to GPT-3.5.
Following the incorporation of the $\mathrm{CoH}$ data and the application of NEFT fine-tuning, our approach demonstrated significant improvements in addressing semantic alteration and task confusion when compared to other models, The rewrite failure rate has decreased by
2.3\% overall compared to llama2_alpaca_field-data, resulting in a $0.25 \%$ improvement in rewrite quality. However, it appears that the issue of semantic addition did not exhibit noticeable optimization. This indicates that our approach can notably enhance the model's understanding of rewriting styles and semantic consistency before and after rewriting. However, due to the specific requirements of our rewriting task, which involve rewriting in a particular style and the addition of specific emoticons, determining whether semantic addition has occurred is challenging for the model.
Table 2 gpt-4 evaluate result
Furthermore, during the analysis of non-formal English cases, we observed that our method demonstrated improved handling of informal expressions, such as misspellings and colloquial language, when compared to 1lama2_alpaca_field-data and GPT-3.5, thus underscoring the effectiveness of the NEFT method.
## 6 Summary
Through our research, we utilized the llama2 model for multi-style text rewriting and introduced the $\mathrm{CoH}$ method and the NEFT method. Our experimental results demonstrated a significant improvement in rewriting quality after incorporating our proprietary rewriting data and applying the NEFT method, especially in handling colloquial expressions and misspellings, outperforming GPT-3.5. Moreover, by training the model with additional positive and negative examples, we enabled the model to learn self-criticism and recognize instances of semantic alteration, semantic addition, and task confusion in the rewriting task. Overall, our study has validated the effectiveness of the $\mathrm{CoH}$ method and the
NEFT method in enhancing rewriting quality and model robustness, offering valuable insights for the task of multi-style text rewriting.
## References
[1] Wu, Chen, et al. "A hierarchical reinforced sequence operation method for unsupervised text style transfer." arXiv preprint arXiv:1906.01833 (2019).
[2] Raffel, Colin, et al. "Exploring the limits of transfer learning with a unified text-to-text transformer." The Journal of Machine Learning Research 21.1 (2020): 5485-5551.
[3] Wang, Yizhong, et al. "Self-instruct: Aligning language model with self generated instructions." arXiv preprint arXiv:2212.10560 (2022).
[4] Chen, Kai, et al. "Gaining wisdom from setbacks: Aligning large language models via mistake analysis." arXiv preprint arXiv:2310.10477 (2023).
[5] Jain, Neel, et al. "NEFTune: Noisy Embeddings Improve Instruction Finetuning." arXiv preprint arXiv:2310.05914 (2023). | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A9-4.pdf | # Recurrent Memory Transformer for Incremental Summarisation of extremely long text
Kaifan Li $\quad$ Shuntaro Yada Eiji Aramaki
Nara Institute of Science and Technology
\{li.kaifan. ln9, s-yada, aramaki\}@is.naist.jp
}
\begin{abstract}
Pupular transformer-based language models are often constrained with a limited number of input length, resulting in subpar performance on the task of long-text summarisation. Prior work has attempted to alter the model's internal architecture to accommodate longer inputs. Even if a model supports longer input texts, limited RAMs in university laboratories and edge devices prohibit us from unleashing that input length. We, thus, explore the task of long-text summarisation based on Recurrent Memory Transformer (RMT) which provides an external memory for the transformer-based models without modifying the internal structure, and further proposed RMT-Summ. To demonstrate the validity of RMT-Summ, we introduce an incremental summarisation task, and built a dedicated dataset from PubMed medical articles containing structured abstracts. Our experimental results show that an RMT-Summ powered BART model performed better than the baseline original BART by 1.24 points in ROUGE-1.
\end{abstract
## 1 Introduction
Large language Models (LLMs) play a pivotal role in NLP. Self-attention, as the foundation of LLMs, suffers from limitation of the input length due to the quadratic computational complexity. Pupular transformer-based language models are often constrained with a limited number of input tokens, such as around $1 \mathrm{~K}$ to $4 \mathrm{~K}$. Since this constraint harms long-text processing tasks (e.g. summarisation and complex dialogue), previous work has attempted modifications to the self-attention mechanism to accommodate longer inputs. Despite the model's support for longer text inputs, the increased length places a burden on RAM, making the utilization of the model less feasible for typical university laboratories and edge devices.
Figure 1 Overview of Incremental summarisation task: The source text is firstly segmented based on its discourse structure. Subsequently, each segment is fed into the summarizer to generate a summary that encapsulates all previously mentioned content.
Figure 2 Overview of RMT-Summ structure for Incremental Summarisation task.
To address the former constraint, Recurrent Memory Transformer (RMT) [1, 2] was proposed, which is simple yet effective external memory mechanism for the models suffering from limited input length, by directly incorporating randomly initialized special tokens into the prefix of the input embeddings. Despite the excellent performance of RMT in Natural Language Understanding tasks such as enwik8 and WikiText-103, its effectiveness in Natural Language Generation remains to be validated. Hence, we apply the idea of RMT into an encoder-decoder architecture, aligning better with the sequence-to-sequence task. Furthermore, we refine the training objective in this context, referring to this variant as RMT-Summ. Specificlly, for an extremely long text, we initially segment it and then process each segment in turn. During this process,
the memory tokens of RMT-Summ are inserted into the embeddings of the input to preserve the memory of previous segment through the depth propagation, and facilitate memory transmission between segments. RMT and RMTSumm does not alter the internal structure of the model; therefore, in a plug-and-play manner, RMT-Summ can effectively integrates with various transformer-based models and other additional technologies.
To validate the effectiveness of RMT-Summ, we introduce a novel incremental summarisation task shown in Figure 1: a long text is inputted per segment; the model must output summarisations of the current segment along with all the past segments so far. Notably, this summarisation task deviates from just summation or cumulation of segmented summaries because it should occasionally modify (edit) the past summary, where the model must memorise the past segments.
Based on this definition, we created a sub dataset from the PubMed that contains structured abstracts for experiments. The experimental results showed a substantial enhancement in the performance of the RMT-Summ powered BART compared to the baseline original BART.
## 2 Related Work
The most straightforward approach to address the longtext summarisation is by directly truncating the input text, often achieved by directly extracting the initial segment up to the maximum input length of the PLMs. However, this method is significantly impacted by lead bias [3].
To minimize the information loss, it's essential to extend the length constraints of the PLMs while controlling computational resource consumption. Previous research has primarily attempted breakthroughs from two perspectives: Effective Attention (Sec. 2.1) and the Divide \& Conquer strategy (Sec. 2.2).
## 2.1 Effective Attention
A popular method is to replace full-attention mechanism with fixed-patterns to achieve more effecient model inference. Longformer [4], as a seminal work, introduced a hybrid attention mechanism that utilizes a form of local attention known as slidng window attention. This alteration allowed Longformer to extend its maximum sequence length up to 16,384 tokens. BigBird [5] introduced random attention on top of Longformer, allowing each token to randomly access several tokens from other positions.
The fusion of BigBird and Pegasus [6] at that time resulted in a significant improvement and achieved the stateof-the-art (SOTA) performance across long-text summarisation datasets. LongT5 [7], upon the local attention, introduced Transient Global Attention, which avoids token selection or adding extra tokens for global attention. Instead, it dynamically constructs global tokens before selfattention at each step.
However, since these models reconstructed selfattention, retraining on large-scale corpora is required, which introduced additional computational overhead. Our RMT-Summ, as a plug-and-play approach, efficiently leverages pre-trained models and requires only limited computational resources for fine-tuning.
## 2.2 Divide \& Conquer
Traditional text summarisation tasks often involve generating a single summary for an entire text. However, with the increase in text length, such as in scientific papers datasets [8], long texts are often structured by sections or chapters.
Multiple prior works attempted to decompose the task of long text summarisation into a multi-step process. DANCER [9] is a representative work, which initially divides long text into multiple non-overlapping segments based on semantic structures. Subsequently, each segment is individually modeled and processed. Finally, the generated summaries for each segment are concatenated together. $\operatorname{SUMM}^{N}$ [10] adopts a similar approach by initially segmenting documents into multiple sections. It generates coarse-grained summaries for each segment and subsequently integrates these coarse-grained summaries to produce finer-grained summaries.
Unlike prior research, we introduce an extra memory prefix that pass salient information throught a segmentlevel recurrence. This memory prefix efficiently transfers crucial information between different sections, enhancing the generation of more precise summaries.
## 3 Methods
## 3.1 Recurrent Memory Transformer
Since our proposed method RMT-Summ (Sec. 3.2) is highly based on the seminal work, Rucurrent Memory
Transformer (RMT) [1,2], we introduce its foundation first. Compare to a prior long-text model called Transformer-XL [11], RMT utilizes a set of global tokens as memory units instead of directly caching the hidden states of the entire segment. RMT adopted a decoder-only architecture in their first work [1]. Due to the unidirectional nature of the decoder, within RMT, the memory unit is divided into read and write modules. The read cell in the prefix part serves as the continuation of memory from the previous segment, while the write cell acts as the storage for the memory of the current segment. Specifically, for time step $\tau$ and segment hidden representations $H_{\tau}^{0}$, the segmentlevel recurrence implementation in RMT is realized by the following equations:
$
\begin{gathered}
\tilde{H}_{\tau}^{0}=\left[H_{\tau}^{\text {mem }} \circ H_{\tau}^{0} \circ H_{\tau}^{\text {mem }}\right] \\
\bar{H}_{\tau}^{N}=\text { Transformer }\left(\tilde{H}_{\tau}^{0}\right) \\
{\left[H_{\tau}^{\text {read }} \circ H_{\tau}^{0} \circ H_{\tau}^{\text {write }}\right]:=\bar{H}_{\tau}^{N}}
\end{gathered}
$
Here $N$ represents the number of transformer layers, while $\circ$ represente the concatenate operation.
In the model's embedding layer, the prefix and postfix memory cells are concatenated with the input text's embeddings. Subsequently, they undergo a vertical passage through the transformer. During this process, the write tokens from the postfix progressively retain the memory of the current segment as the network passes through to achieve the depth-level propagation. Subsequently, to achieve segment-level recurrence, the write tokens of the current segment are passed on to the next segment:
$
H_{\tau+1}^{\text {mem }}:=H_{\tau}^{\text {write }}, \tilde{H}_{\tau+1}^{0}=\left[H_{\tau+1}^{\text {mem }} \circ H_{\tau+1}^{0} \circ H_{\tau+1}^{\text {mem }}\right]
$
## 3.2 RMT-Summ
Text summarisation, as a sequence-to-sequence task, is more suitable for application to a sequence-to-sequence model rather than encoder-only or decoder-only structures [12]. In an encoder-decoder architecture, the sentence representation is encoded in the encoder and the target sentence is generated in the decoder. Due to the bidirectional nature of the encoder, a single memory cell can simultaneously serve both read and write functions. Based on the aforementioned concept, we only insert memory prefix into the encoder following the latest work of RMT [2], to retain the memory of the current segment and circulate between segments, while we utilize an addtion decoder for summary generation. Specifically, in the context of an encoder-decoder architecture, the update of memory and the propagation of our RMT-Summ occur as follows:
$
\begin{gathered}
\tilde{H}_{\tau}^{0}=\left[H_{\tau}^{\text {mem }} \circ H_{\tau}^{0}\right] \\
\bar{H}_{\tau}^{N}=\operatorname{Encoder}\left(\tilde{H}_{\tau}^{0}\right) \\
{\left[\bar{H}_{\tau}^{\text {mem }} \circ H_{\tau}^{0}\right]:=\bar{H}_{\tau}^{N}} \\
\tilde{T}_{\tau}=\operatorname{Decoder}\left(\bar{H}_{\tau}^{N}, T_{\tau}\right) \\
H_{\tau+1}^{m e m}:=\bar{H}_{\tau}^{\text {mem }}, \tilde{H}_{\tau+1}^{0}=\left[H_{\tau+1}^{m e m} \circ H_{\tau+1}^{0}\right]
\end{gathered}
$
Notably, in contrast to the traditional summarization task, our optimization objective is tailored for the incremental summarization task, as elaborated in Section 4.
## 4 Incremental Summarisation
To align RMT-Summ with summarisation task, in this work, we propose the concept of incremental summarisation. Specifically, given an input document $D$ comprising multiple segments $S=\left.\{S_{1}, S_{2}, \ldots, S_{N}\right.\}$, the corresponding summary $y$ can also be segmented into multiple parts $y=\left.\{y_{1}, y_{2}, \ldots, y_{N}\right.\}$. For each input segment $S_{\tau}$, our training target should be $T_{\tau}=\operatorname{edit}\left(\operatorname{concat}\left(y_{1}, y_{2}, \ldots, y_{\tau}\right)\right)$. It is important to emphasize here that the function edit implies that in practical scenarios, our summaries may not simply be a straightforward concatenation of segment summaries but a reintegration process as shown in Figure 1.
## 5 Experiment Setup
## 5.1 Data
PubMed [13] is a large scale long scientific dataset collected from PubMed.com, which encompassing a wealth of biomedical and life science literature and journals. Moreover, due to the presence of structured abstracts within certain papers in PubMed, it is well-suited for validating our incremental summarisation task. We applied specific preprocessing to this dataset and filtered out a subset, which we named PubMed-IncreSumm.
Specifically, following the methodology outlined in this work [14], we extracted the main sections from the body text and segmented it into four parts based on the section headings. Additionally, for some literature, the abstract sections could be explicitly categorized into "Introduction", "Methods", "Results", and "Conclusion" through
Table 1 Keywords used to match the corresponding sections. If a section heading is not found in this keyword list, we disregard it. Additionally, we performed the same grouping operation for the abstract sections.
keyword matching, as specified in Table 1. We filtered out such articles accordingly.
From PubMed's train, test, and valid sets, we acquired 24,843, 1,399, and 1,431 data entries, respectively as PubMed-IncreSumm. We employed the NLTK [15] tokenizer to conduct text length statistics for all datasets. The average length of the source text was 2,736.26, while the final abstracts had an average length of 298.68 .
## 5.2 Model \& Implementation settings
We opted to employ BART [16] (i.e. 'facebook/bartbase' available on Hugging Face) as the backbone model because of its excellent performance in short text summarisation tasks. The sample counts for the training set, validation set, and test set were 24,843, 1,399, and 1,431, respectively. We set the learning rate to $5.0 \times 10^{-5}$, beam search width to 4 , and the maximum text length for each section's main text to 512 , with a maximum generation length of 300. We utilized the F1-score of ROUGE-1, ROUGE-2, and ROUGE-L as evaluation metrics, invoking the evaluation package provided by HuggingFace. Here, we computed the results for the generated output of each segment, rather than solely focusing on the output of the final segment. We utilized two Quadro RTX 8000 GPUs, each with 48GiB memory, alongside one Quadro P6000 GPU with 24GiB memory.
## 6 Results and Discussion
Our experiments primarily aimed to validate the impact of different sizes of memory prefix in contrast to baseline results. As shown in Table 2, under the settings of incremental summarisation, the BART model performs strongly even without any additional mechanism in the PubMed-Incremental dataset. This is to some extent reliant on BART's powerful language modeling capabilities. On the other hand, scientific papers often have substan-
Table 2 ROUGE scores on PubMed-IncreSumm. The number of tokens represents the length of the memory prefix for RMTSumm. We denote the optimal results with bold font and the second-best results with an underline.
tial overlaps between various sections, which we believe might contribute to the model's sustained strong performance. Furthermore, we observed that an increase in the number of memory tokens exhibits a certain positive correlation with the ROUGE scores. The performance reaches its peak at around 200 tokens, with the ROUGE- 1 score reaching 50.59, surpassing the baseline by 1.24 points. Subsequently, after further increasing the token count to 256, the rouge scores remained almost unchanged. However, the number of memory tokens around 200 appears to be excessive for a practical situation, suggesting room for improvement of our approach.
## 7 Conclusions
For long document summarisation, we proposed a variant of plug-and-play RMT termed RMT-Summ, which incorporates memory prefixes into the encoder-decoder architecture. To verify the effectiveness of the RMT-Summ, we introduced a new optimisation objective, incremental summarisation, and created a dedicated dataset from PubMed articles, i.e. PubMed-IncreSumm datasets. The experimental results show that when the token length of the memory prefix is around 200, the metric of ROUGE scores outperforms the baseline. Since carefully designing a task and training dataset could enable models to generate memory-encoded vectors that are useful for long-text processing, we will continue exploring our approach by evaluating it on diverse models and tasks.
## Acknowledgement
This work was supported by JST CREST (Grant Number: JPMJCR22N1), Japan.
## References
[1] Aydar Bulatov, Yury Kuratov, and Mikhail Burtsev. Recurrent Memory Transformer. Advances in Neural Information Processing Systems, Vol. 35, pp. 1107911091, 2022.
[2] Aydar Bulatov, Yuri Kuratov, and Mikhail S Burtsev. Scaling transformer to $1 \mathrm{~m}$ tokens and beyond with RMT. arXiv preprint arXiv:2304.11062, 2023.
[3] Zican Dong, Tianyi Tang, Lunyi Li, and Wayne Xin Zhao. A survey on long text modeling with transformers. arXiv preprint arXiv:2302.14502, 2023.
[4] Iz Beltagy, Matthew E Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv preprint arXiv:2004.05150, 2020
[5] Manzil Zaheer, Guru Guruganesh, Kumar Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, et al. Big bird: Transformers for longer sequences. Advances in neural information processing systems, Vol. 33, pp. 17283-17297, 2020.
[6] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pp. 11328-11339. PMLR, 2020.
[7] Mandy Guo, Joshua Ainslie, David C Uthus, Santiago Ontanon, Jianmo Ni, Yun-Hsuan Sung, and Yinfei Yang. Longt5: Efficient text-to-text transformer for long sequences. In Findings of the Association for Computational Linguistics: NAACL 2022, pp. 724-736, 2022.
[8] Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. A discourse-aware attention model for abstractive summarization of long documents. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: $\mathrm{Hu}-$ man Language Technologies, Volume 2 (Short Papers), 2018
[9] Alexios Gidiotis and Grigorios Tsoumakas. A divide-andconquer approach to the summarization of long documents. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 3029-3040, 2020.
[10] Yusen Zhang, Ansong Ni, Ziming Mao, Chen Henry Wu, Chenguang Zhu, Budhaditya Deb, Ahmed Awadallah, Dragomir Radev, and Rui Zhang. Summn: A multi-stage summarization framework for long input dialogues and documents: A multi-stage summarization framework for long input dialogues and documents. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1592-1604, 2022.
[11] Zihang Dai, Zhilin Yang, Yiming Yang, Jaime G Carbonell, Quoc Le, and Ruslan Salakhutdinov. Transformer- xl: Attentive language models beyond a fixed-length context. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2978-2988, 2019.
[12] Huan Yee Koh, Jiaxin Ju, Ming Liu, and Shirui Pan. An empirical survey on long document summarization: Datasets, models, and metrics. ACM computing surveys, Vol. 55, No. 8, pp. 1-35, 2022.
[13] Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. A discourse-aware attention model for abstractive summarization of long documents. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 615-621, 2018.
[14] Luyang Huang, Shuyang Cao, Nikolaus Parulian, Heng Ji, and $\mathrm{Lu}$ Wang. Efficient attentions for long document summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1419-1436, 2021.
[15] Steven Bird, Ewan Klein, and Edward Loper. Natural language processing with Python: analyzing text with the natural language toolkit. "O'Reilly Media, Inc.", 2009.
[16] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
A9-5.pdf | # 特許請求の範囲の自動書き換え生成モデルのための 大規模データセットの構築
河野 誠也 ${ }^{1,2}$, 野中 尋史 ${ }^{3}$, 吉野 幸一郎 1,2
1 理化学研究所ガーディアンロボットプロジェクト
2 奈良先端科学技術大学院大学 3 愛知工業大学
\{seiya.kawano, koichiro.yoshino\}@riken.jp, hnonaka@aitech.ac.jp
## 概要
本研究では,特許文書における特許請求の範囲の書き換えを自動生成することを目的とした書き換え生成モデルの基礎的検討を実施する。本研究では, このようなモデルを学習・評価するためのベンチマークとして,特定の特許出願に紐づけられた公開特許公報, 特許公報からの情報の差分を取り込むことで,特許請求の範囲の書き換え事例を大量に収録したデータセットを構築した。次に,構築したデー タセットを用いて大規模言語モデルに基づいた特許請求の範囲の自動書き換え生成モデルを構築し,その性能と限界について議論した。
## 1 はじめに
特許請求の範囲とは,特許を受けようとする発明を特定するための特許文書中の項目であり,一つ又は複数の「請求項」から構成される。請求項は, 当該の発明が特許査定を受けるためや,既存の特許と比較してより強い権利を得るために,その記載内容を効果的に推敲することが重要である。しかなしながら, 一般に, 請求項の推敲は多くの時間と労力を要する作業となることが多いため, 効果的な請求項の推敲支援ツールが求められている。これまでに,特許検索やパテントマップ生成などの基本的な特許情報処理のタスクに関する研究 $[1,2]$ や, 特許請求の範囲の読解支援に関する研究 [3] は実施されている一方で,与えた特許請求の範囲を様々な観点からより良く書き換えるような書き換え生成モデルに関する実質的な研究は不十分である [4]。また,そのような書き換え生成モデルを学習・評価するためのデータセットも存在しない。
そこで,本研究では,特許請求の範囲(一つ以上の請求項で構成)の書き換えを自動生成することを目的とした書き換え生成モデルの基礎的検討を実施する。具体的には,与えられた特許請求の範囲から,より良い特許請求の範囲の書き換えを生成する書き換え生成モデルを大規模言語モデルに基づいて構築する。本研究では,このようなモデルを学習・評価するためのベンチマークとして, 特定の特許出願に紐づけられた公開特許公報, 特許公報からの情報の差分を取り込むことで,特許請求項の書き換え事例を大量に収録したデータセットを構築した。次に,構築したデータセットを用いて大規模言語モデルに基づいた特許請求の範囲の自動書き換えモデルを構築し,その性能と限界について議論する。
## 2 書き換えデータセット
特許請求の範囲の自動書き換えを目的とした書き換え生成モデルを学習・評価するためには,特許請求の範囲の書き換え事例(書き換え前の特許請求の範囲と書き換え後の特許請求の範囲のペア)を教師データとして大量に収録したデータセットが必要である。本研究では,このようなデータセットを構築するための書き換えの事例として,実際の特許出願に紐づけられた公開特許公報(特許登録の有無に関わらず一定期間後に公開される出願時の特許文書),特許公報(登録査定された特許文書)の特許請求の範囲のペアに着目した。一般に,多くの特許出願は一度拒絶された後に必要な修正(補正)を適用したのち登録査定される(図 1)。また,拒絶の有無に関わらず,手続き上必要な軽微な軽微な修正も実施される。特許制度の性質上,特許公報における特許請求の範囲は, 特許を受けるために出願時の特許文書 (特許公開公報がこれに対応)から必要な修正が適用されたものである。したがって,特許制度の観点においては,特許公報の特許請求の範囲は特許公開公報のものと比較して「より良い書き換え」の結果
として利用できる。
## 2.1 データセットの構築
本研究では,特許庁が提供する特許情報バルクデータ(過去分)をデータセット構築に用いた。具体的には,2004 年から 2022 年に特許庁のシステムを通じて公開された特許公開公報情報 (A),特許公報情報(B9)の集合から,同一の特許出願番号を持つ公開公報 (A),特許公報(B9)の特許請求の範囲のペアを抽出した。ここで,特許庁が配布する公報データは実際には $\mathrm{xml}$ 形式で提供されており,生成モデルの学習には適さない。したがって, 公報 $\mathrm{xml}$ ファイルに XSLT 変換を適用し, J-PlatPat ${ }^{1)}$ 上での HTML view とほぼ等価なプレインテキスト形式に事前に変換した。さらに,特許出願番号に基づいて,特許庁が提供する特許情報標準データ(審査経過情報等),拒絶理由条文コード情報(特許審査官によって特許が拒絶される際にその根拠として引用された条文のコード情報),IIP パテントデータベー ス [5] と紐づけすることで,特許情報処理研究に利用可能な統合的なデータベースを整備した。実際には,特許請求の範囲だけではなく, 発明の詳細内容の書き換えペアもデータセットに収録をしており今後の研究に利用可能である。
## 2.2 データセットの分析
データセットに収録されている特許公開公報(A) と特許公報(B9)の特許請求の範囲の有効なぺア (両者に差分がある場合,ない場合),特許許公開公報(A)のうち未登録(未審査,拒絶,審査中など) であり対応する特許公報が存在しないものの内訳を表 1 に示す。ここで,XSLT 変換のエラーや元公報ファイルが破損しているような事例は除外していることに注意されたい。平均トークン数 ${ }^{2}$, 平均請求項数は,特許公報(B9)の特許請求の範囲のものであり,括弧は書き換え前の特許公開公報(A)からの異なり率を示している。未登録の場合は,公開公報(A)の統計を示している。
表 1 から,データセットには,合計で 4,856,533 件の特許出願に関する特許公開公報と特許公報のテキストペアが収録されている。ここで,特許公開公報(A)と特許公報(B9)のペア 2,245,640 件のうち,特許請求の範囲のテキストに差分がある場合
表 1 構築したデータセットの内訳
& $1,839,880$ & $739.83(-5.8 \%)$ & $6.67(-21.7 \%)$ \\
が $1,839,880$ 件 $(81.9 \%)$, 両者に差分がない場合が 405,760 件 $(18.1 \%$ )存在した。ここで,未登録の特許と比較して,登録された特許の方が平均トークン数と平均請求項数が減少する傾向が確認できた。請求項数は $21.7 \%$ 程度(2 件程度)が減少している一方で,特許請求の範囲のテキストのトークン数は $5.8 \%$ 程度しか減少していないことが確認できる。
また,A,B9ペア [差分あり]の集合のうち,出願審査中に拒絶理由が発送された履歴があるものを対象とした平均編集距離(レーベンシュタイン距離)を表 3(付録を参照)に示す。ここで, line-dist, word-dist は編集距離を求める際の編集操作の単位として行単位,単語単位を用いた場合に相当する。。結果は,拒絶理由毎に編集距離の大きさが異なる傾向が確認できる。例えば,新規事項を追加する補正 (第 17 条の 2 第 3 項),発明の単一性(第 37 条)のような拒絶理由において,特許公開公報と特許公報の間には大きな編集距離が存在している。一方で言い換えれば,出願人は出願した特許が特許査定を受けるために大幅な書き換えを適用したとみなすことができる3)。これらの結果は,特許請求の範囲の書き換えの目的に応じた書き換えを実現することの重要性を示唆している。
## 3 書き換え生成モデル
本節では,特許請求の範囲の書き換え生成タスクを定義し,大規模言語モデルに基づいた特許請求の範囲の書き換え生成モデルの学習方法について述べる。
## 3.1 タスク設定
本研究が扱う特許請求の範囲の書き換え生成タスクは書き換え前の特許請求の範囲 $c$ のテキストを入力として与えたときに,与えた特許請求の範囲をより良く書き換えた特許請求の範囲 $c^{\prime}$ のテキストを出力として生成することである。このような書き換え生成モデルを学習するためには,以下の目的関数を最小化する必要がある。
$
L=-\sum_{\left(c, c^{\prime}\right) \in C} \log P\left(c^{\prime} \mid c ; \theta\right)
$
ここで, $C$ は書き換え前の特許請求の範囲 $\mathrm{c}$ と書き換え後の特許請求の範囲 $c^{\prime}$ のペアの集合(学習データ), $\theta$ は書き換え生成モデルの学習可能なパラメタ集合である。さらに,想定される特許の拒絶理由などを, 書き換え前の特許請求の範囲 $\mathrm{c}$ の付加情報として与えてもよい。3 節でも述べたように,このような書き換え生成モデルを学習するためのデー タは, 特許公開公報と特許公報の特許請求の範囲のペアを書き換えの事例として用いることで構築されている。
## 3.2 事前学習済み言語モデルの微調整
本研究では,特許請求の範囲の書き換え生成モデルを事前学習済みの大規模言語モデル $[6,7]$ を微調整することで実現する。本研究では, 特に, 日本語 GPT モデルを特許請求の範囲書き換え生成モデルの学習に用いる。より具体的には,言語モデルのパラメタ $\theta$ を 4.1 節の目的関数を最小化するように構築したデータセットを用いて微調整する。本研究が扱う特許請求の範囲の書き換えタスクは, 本質的には系列変換タスク(要約,翻訳,質問応答, etc.)に相当する。ここで, 特許出願時の特許請求の範囲は生成の際に最初に利用されるコンテキスト情報であり,モデルに対する先行入力 (Prompting) として与えて, 後続のテキスト(特許公報の特許請求の範囲)を生成するように学習する。
## 4 評価実験設定
本節では,大規模言語モデルに基づいた特許請求の範囲の書き換え生成モデルの学習・評価に用いたデータセット, 比較に用いたモデルの概要と学習設定,評価方法について述べる。
## 4.1 学習・検証・評価用データセット
3 節で構築したデータセットから,公開特許公報/特許公報の特許請求の範囲が変化している場合 (誤字などの軽微な修正も含む)の全てのペアを抽出し, 言語モデルの学習用 $(1,142,640$ 件 $)$ ・検証用 ( 1,000 件) ・評価用( 1,000 件)データとして用いた。 ここで,評価実験に用いる言語モデルが想定する最大トークン長には制約があるため,特許公開公報と特許の特許請求の範囲がそれぞれ 800 トークン長以内に収まるデータのみを用いていた。
## 4.2 比較モデル
本研究では,ヒューリスティックなベースラインモデルと,大規模言語モデルとして日本語 GPT モデルに基づいた書き換え生成モデルの性能を検証した。検証に用いたモデルは以下の通りである。
- Copy: 特許請求の範囲を書き換えない場合。
- RDC (Random delete of claims): 請求項 1 を除く請求項をランダムに一つ削除する場合。ここで,削除した請求項に従属する請求項も全て除外する。
- DMMC (Delete of multi-multi claims): マルチマルチクレームを全て除外する場合。ここで,削除したマルチマルチクレームに従属する請求項も全て除外する。
$\cdot$Open-calm-medium: 日本語 GPT モデル (400M パラメタサイズ)の微調整。
- Open-calm-large: 日本語 GPT モデル(830M パラメタサイズ)の微調整。
ここで, RDC は特許の登録査定時の請求項数が出願時と比較して減少する傾向があるという知見に基づいている(3 節)。DMMC は日本国を含む各国特許庁におけるマルチマルチクレームの制限に対する動きを反映したモデルである。open-calm-*はサイバーエージェント社が公開の日本語 GPT モデルである。これらのモデルは, huggingface のレポジトリ4)にアップロードされているモデルを用いた。言語モデルのパラメタサイズ $|\theta|$ については,学習コスト,推論速度の観点から扱いやすいパラメタサイズが 10 億(1B)程度までのモデルを用いた。ここで,7B,13B 相当のモデルであったとしても,元の言語モデルのパラメタ行列の低ランク近似を用いた QLoRA のような手法 [8] を導入することで学習の実施は可能であるが,目標タスクの適応においては元の言語モデルそのものの性能や事前学習に用いられたデータのドメインに非常に強く依存するため,本研究では除外した。
## 4.3 評価指標
特許法第 17 条において定められる特許の補正要件規定を鑑みると,BLEU のような評価指標では,特許請求の範囲を仮に書き換えないでそのままコ
ピーして出力するような保守的なモデルであったとしてもスコアが過大に評価される可能性がある [9]。特許請求の範囲の補正には,請求項の削除や追加,内的付加,外的付加のような補正形態がある。これらの補正形態に基づいた特許請求項の書き換え操作には,基本的には,元の特許請求の範囲の文からのコピー,追加,削除,変更のような異なる種類の書き換え操作が含まれる。こうした,異なる種類の書き換え操作を考慮したモデル出力(書き換え結果) な評価をするためには単純な BLEU スコアの適用は望ましくない。そこで,本研究では 3 節での分析と同様に,異なる編集単位に基づいた編集距離(レー ヴェンシュタイン距離)に基づいて参照文と生成文の非類似度(距離)を評価する。用いたスコアは以下のとおりである。
・ line-dist: 行単位の編集操作を適用した場合の参照文と生成文の編集距離の平均。
- word-dist: 単語単位の編集操作を適用した場合の参照文と生成文の編集距離の平均。
ここで,各スコアを計算する際に用いた書き換え生成モデルの出力には,ランダムサンプリング (top_k=50, top_p=0.95)による 50 個の生成候補からスコアが最も最大となる生成文をそれぞれ選択した。
表 2 各特許請求の範囲の書き換え生成モデルの評価セッ卜における性能
## 5 評価実験結果
各特許請求の範囲の書き換え生成モデルの評価セットにおける性能(line-dist,word-dist)を表 2 に示す。結果は,元の特許請求の範囲元からそのまま文をコピーするような保守的なモデルである Copy の書き換え性能が,元の特許請求の範囲から請求項を削除するようなモデルである RDC,DMMC を上回る結果となった。請求項の削除は, 特許請求の範囲の補正方法として比較的一般的である一方で,ランダム削除や一括削除による基隼では,本来削除するべきでない請求項の情報が欠落した可能性がある。ただし,マルチマルチクレームのみを除去する DMMC はRDC よりも高い性能を示しており, 請求項の妥当性を明確な基準を用いて考慮することの重要性を示唆している。大規模言語モデルの微調整に基づいた書き換え生成モデルについについては, パラメタサイズによらずヒューリスティックなべースラインモデルを上回ることが確認できた。特に,単語単位の編集操作に基づいた word-dist で顕著な改善が確認できた。また,言語モデルのパラメタサイズを大きくすることで,特許請求の範囲の書き換え性能が向上することが示された。しかしながら,特許請求の範囲の全文のペアを生成するように学習を行う現状のモデルは,モデルのパラメタサイズの増大によりモデルの学習に必要となる計算リソースも飛躍的に増大するという制約がある。
## 6 まとめと今後の課題
本研究では,特許請求の範囲の書き換えを自動生成することを目的とした書き換え生成モデルの基礎的検討を実施した。具体的には,特許請求の範囲の書き換えタスクの定義,書き換え生成モデルの学習・評価のためのデータセット構築,大規模言語モデルに基づいた提案モデルの性能とその限界を調査した。評価実験では,大規模言語モデルに基づいた提案モデルがヒューリスティックなベースラインモデルを凌駕する性能を示した。また,事前学習モデルのパラメタサイズがモデルの書き換え性能に影響を与えることが示唆された。今後の課題としては,提案モデルの性能をさらに向上するために,より大規模な言語モデルを本研究タスクで微調整や,書き換え対象の特許請求の範囲だけではなく,先行特許の情報や予想される特許の拒絶理由等を書き換えモデルに対する追加の入力情報として用いることを検討する。また,自動評価だけではなく人間の専門家による人手評価を実施する。
## 謝辞
本研究は, JST 戦略的創造研究推進事業 ACT-X (JPMJAX22A4),ムーンショット型開発支援事業 (JPMJMS2236),JSPP 科研費基盤 C(19K12116)の支援により実施された。
## 参考文献
[1] Mihai Lupu, Katja Mayer, Noriko Kando, and Anthony J Trippe. Current challenges in patent information retrieval, Vol. 37. Springer, 2017.
[2] Atsushi Fujii, Makoto Iwayama, and Noriko Kando. Overview of the patent retrieval task at the ntcir-6 workshop. In NTCIR, 2007.
[3] Akihiro Shinmori, Manabu Okumura, Yuzo Marukawa, and Makoto Iwayama. Patent claim processing for readability-structure analysis and term explanation. In Proc. of the ACL-2003 workshop on Patent corpus processing, pp. 56-65, 2003.
[4] 新森昭宏, 大屋由香里, 谷川英和ほか. 特許請求項における多重多数項引用の検出と書き換え. 情報処理学会論文誌, Vol. 49, No. 7, pp. 2692-2702, 2008.
[5] Akira Goto and Kazuyuki Motohashi. Construction of a japanese patent database and a first look at japanese patenting activities. Research Policy, Vol. 36, No. 9, pp. 1431-1442, 2007
[6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, 2017.
[7] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAl blog, Vol. 1, No. 8, p. 9, 2019.
[8] Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, and Luke Zettlemoyer. Qlora: Efficient finetuning of quantized llms. arXiv preprint arXiv:2305.14314, 2023.
[9] 河野誠也, 野中尋史, 吉野幸一郎. 大規模言語モデルに基づいた特許請求の範囲の自動書き換え生成モデル. 研究報告自然言語処理 (NL), Vol. 2023-NL-258, No. 24, pp. 1-6, 2023.
[10] Jieh-Sheng Lee and Jieh Hsiang. Patent claim generation by fine-tuning openai gpt-2. World Patent Information, Vol. 62, p. 101983, 2020
[11] Jieh-Sheng Lee. Evaluating generative patent language models. World Patent Information, Vol. 72, p. 102173, 2023 .
## A 付録
## A. 1 関連研究
Transformer 言語モデルに基づいた大規模言語モデルの登場により,文章要約,質問応答,機械翻訳,文法誤り訂正といった,様々な自然言語処理のタスクで,大規模言語モデルを活用した手法が最先端の性能を示している [6]。大規模言語モデルの性能向上に伴いこうした応用タスクの性能も進化を続けている一方で,一般のコーパスとは語彙が異なる特許ドメイン(特に米国特許)に特化した特許言語モデルの開発と特許ドメインにおける様々なタスクへの応用が進んでいる $[10,11]$ 。こうした特許言語モデルの性能評価では,しばしば特許請求項の自動生成タスクに焦点があてられるが,与えられた請求項に対する実用的な書き換えを生成するようなタスクも存在する [4]。請求項の書き換えタスクでは,単純な生成タスクとは異なり,元々の請求項の意味内容を概ね保持しつつ,その品質を向上させた書き換えを生成する必要がある。ここで,書き換えの品質は,単に言語モデル的に自然であるということではなく,特許が拒絶されない,より強い権利範囲を持つ,といった特許制度上の観点から決定されることに注意されたい。請求項の書き換えタスクに関しては,ルールベース手法に基づいた多重多数項引用の請求項(マルチマルチクレーム)を複数の請求項に分解して書き換えるような研究が存在するが,非常に限定された目的のみでの書き換え支援にとどまっている [4]。また,単一の請求項だけでなく特許請求の範囲全体の構造を考慮した一貫的な書き換えを自動生成するような研究は存在しない。また,そのような書き換え生成モデルを学習・評価するためのデータセットも存在しない。そこで,本研究では多目的に対応した特許請求の範囲の書き換えを自動生成するモデルを実現するためのデータセットの構築と大規模言語モデルの応用可能性を検討する。
## A. 2 特許出願における公報発行プロセス
図 1 特許出願における特許公開公報と特許公報の発行までのプロセス
## A. 3 実際の書き換え事例
特許請求の範囲の書き換え事例5) を以下に示す。この書き換えの例では, 請求項 1 の記載を減縮し, 請求項 3 の記載においては, 訂正前の請求項 1 の記載を組み込んで,請求項 1 の記載を引用しないものとし,独立形式請求項として改めている。また, 請求項 4 の記載においては, 請求項 2 の記載と同様に独立形式請求項へ改めるとともに,請求項 4 の記載を減縮した事例である。
## 【変更前】
5)特許庁「訂正審判請求書及び訂正請求書の記載例」より引用
【変更後】
## A. 4 拒絶理由毎の平均編集距離
表 3 は,特許出願中に発送された拒絶理由毎に書き換えぺア間の平均編集距離を計算した結果である。ここで, line-dist,word-dist はそれぞれ編集操作に行単位と単語単位を用いる場合に相当する。また,表 3 に用いた書き換えぺアは,構築したデータセットのサブセットであり, 2021 年に出願され,2022 年までに特許査定を受けたものうち拒絶理由(2021 年に改訂された拒絶理由条文コードに基づく)の発送履歴があるものに限定していることに注意されたい。
& 19.87 & 319.55 \\
## A. 5 学習設定
言語モデルの学習には RTX A6000を 4 枚用いた。さらに,学習に用いる言語モデルのサイズに応じて,各 GPU デバイスにおけるバッチサイズ, gradient accumulation steps を実質的な学習バッチサイズが 512 以上となるように設定した。モデルの Optimizer には,学習率 5e-5 の AdamW を設定した。モデルの学習エポック数は最大 1 として, 0.1 エポック毎にチェックポイントを設定した。また,学習・推論時においては,浮動小数点スケール(bfloat16)に基づいた量子化を適用した。モデルの評価には検証セットにおいて最も低い Perplexity を示したチェックポイントを用いた。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B1-1.pdf | # 用語制約が多い翻訳に対する手法の提案
加藤 優吾 1 小川泰弘 ${ }^{2}$ 外山 勝彦 1
1 名古屋大学大学院情報学研究科 2 名古屋市立大学データサイエンス学部
kato.yugo.c4@s.mail.nagoya-u.ac.jp ogawa@ds.nagoya-cu.ac.jp
toyama@is.nagoya-u.ac.jp
## 概要
翻訳における訳語の摇れは混乱や誤解を招く可能性があるため,決められた訳語に従った翻訳が必要となる。すなわち,用語制約のある翻訳が求められる.そのための手法として入力拡張 [1] などが提案されている。しかし,学習に使用する対訳文が用語制約に従っているとは限らず,それらの対訳文が学習においてノイズとなる可能性がある。そこで,本研究では学習データを選別する手法を導入し, 入力拡張と組み合わせる手法を提案する. さらに,日本法令の対訳データセットを用いて実験し,提案手法が有効であることを示す.
## 1 はじめに
ニューラル機械翻訳 (NMT) モデルは,同じ意味を表す 1 つの用語(単語・熟語など)を異なる訳語で翻訳するときがあり,訳語に摇れが生じる可能性がある.製品マニュアルや契約書,法令などの翻訳では訳語の摇れが混乱や誤解を招く原因となる。そのため,1つの用語に対して同じ訳語を使用するべきである.そこで,いくつかの用語の訳語をあらかじめ決めておき,それに準拠して翻訳するシステムが求められる. 本研究において, 訳語が定められた用語とその訳語のペアの集合を「用語制約」と呼ぶ.
本研究では,用語制約がある法令翻訳に取り組む。その理由は,用語制約がある翻訳が法令翻訳において必要な技術であることに加えて,対訳文と用語制約のデータが公開されていて,容易に入手できるためである。実際,対訳文として日本法令外国語訳データベースシステム ${ }^{1)}(\mathrm{JLT})$ が,また,用語制約として「法令用語日英標準対訳辞書 ${ }^{2}$ )」(以下「対訳辞書」という)が公開されている。対訳文と対訳辞書の例をそれぞれ表 1 ,表 2 に示す. JLT で公開さ
1) https://www.japaneselawtranslation.go.jp/ja/
2) https://www.japaneselawtranslation.go.jp/ja/dicts表 1 JLT の対訳文の例
表 2 対訳辞書 (ver. 15)の一部
れている訳文は対訳辞書を参考に人手で作成されているが,完全には準拠していない,例えば,対訳辞書における「労働組合」の訳語は「labor union」であるが,表 1 の例では「trade union」となっている.
用語制約に準拠して翻訳するために入力拡張 [1] などの手法が提案されている。しかし,本研究における実験を通じて,日本法令の翻訳においてはその効果がわずかであることが判明した。その原因は,対訳辞書に準拠していない対訳文が学習データに含まれるためと考えられる。そこで,本研究では学習データを選別する手法を導入し,入力拡張と組み合わせる.また,実験によりその有効性を示す。
## 2 日本法令外国語訳データベースシ ステム
本節では JLT で公開されているデータについて,本研究と関連する事柄を記す。なお,2022/11/25 時点で公開されていたデータを実験(第 5 節)に使用したため,本節でもその時点での情報を示す。
## 2.1 対訳辞書
1 つの用語に対して 1 つの訳語を使用するのが理想である。しかし,用語とその訳語が一対一で対応するとは必ずしも限らず,表 2 の例 2 のように訳語が複数存在する用語が存在する。そのため, 1 つの
用語に対する訳語の集合を「訳語候補」とする.訳語候補のうちどの訳語を使用するべきかは文脈などから判断するべきである. そのため, 用途や例文が記載されている語が存在する。例えば,「労働者」 の訳語は一般的には「worker」であるが,民法の雇用関係に関する場合は「employee」とされている.
対訳辞書はバージョンが約 1 年ごとに更新されており,現在,ver. 15 まで公開されている.
## 2.2 対訳データ
JLT では日本の法令の英訳文が公開されている.訳文は対訳辞書を参考にして人手で作成されており,ネイティブや法律の専門家などによる検査を経ている. しかし, 第 1 節で述べたように対訳辞書に必ずしも準拠していない.
また,対訳辞書のバージョン更新に合わせてすべての訳文を修正するのは現実的でない. ゆえに,法令によって異なるバージョンの対訳辞書を用いて翻訳されている. 本稿では,それを「翻訳に使用した対訳辞書」という.
## 3 先行研究
用語制約に準拠して翻訳する手法は,大きく分けてハードな語彙制約手法とソフトな語彙制約手法の 2 種類が存在する.
ハードな語彙制約手法として,デコード時のビー ムサーチにおいて用語制約を満たすように探索する手法が提案されている $[2,3]$. この手法は,与えられた用語制約をすべて満たすことが保証される.しかし, 似たフレーズが繰り返し出力されるなどの問題があり,翻訳性能が低下する可能性がある.
ソフトな語彙制約手法として, 入力に変更や情報を加えて学習する手法が提案されている $[1,4,5]$. これらの手法は,ハードな語彙制約手法より翻訳性能は高くなりやすいが,用語制約が満たされない可能性がある.
ソフトな語彙制約手法の 1 つに Ailem らが提案した大力拡張 [5] がある. それに対して, Wang ら [1] は 1 つの用語に複数の訳語がある場合にも対応できるよう改良した. 本研究では,Wang らの手法を入力拡張と呼び,これを使用する。
入力拡張では,原文中において用語制約のある用語の後にくT>タグで囲んだ訳語を追加し, その用語と訳語の全体を $<\mathrm{S}>$ タグで囲む. 訳語が複数あるときには<SEP>タグで区切る. 例を表 3 に示す. 入力表 3 入力拧張の例
入力拡張後
... $<$ S $>$ 労働者 $<\mathbf{T}>$ worker $<$ SEP> employee $</ \mathbf{T}>$ $<\mathbf{S}>$ の過半数で組織する $<\mathbf{S}>$ 労働組合 $<\mathbf{T}>$ labor union $</ \mathbf{T}></ \mathbf{S}>$ との間における...
拡張の目的は,くT>タグ内の訳語を出力に含めるようモデルに学習させることである.
## 4 提案手法
本研究では,用語制約のある法令翻訳において入力拡張を使用する手法を提案する。しかし,本研究における実験を通じて,その効果がわずかであることが判明した. その原因は,対訳辞書に準拠していない対訳文が学習のノイズとなるためであると考えられる。そこで,対訳文の対訳辞書に対する「準拠率」を定義し,準拠率が高い文のみで学習を行う 「データ選別」を導入する。
## 4.1 入力拡張
第 3 節で述べた入力拡張を手法 1 とする. 入力拡張は検証データとテストデータにも適用する。
ある用語と別の用語が共通文字列を持つことがある.この場合, 最長一致した用語にのみタグ・訳語を追加する.例えば,表 3 の例のように「労働組合」に含まれる「組合」にはタグ・訳語を追加しない.また,各対訳文において翻訳に使用した対訳辞書を用いて入力拡張をする.
## 4.2 準拠率の定義
原文 $s$ とその訳文 $t$ のペアである対訳文の対訳辞書 $D(t)$ に対する準拠率を式 (1) で定義する。
準拠率 $=$
$
\frac{\sum_{\left(p_{s}, P_{t}\right) \in D(t)} \min \left(\operatorname{count}\left(p_{s}, s\right), \sum_{p_{t} \in P_{t}} \operatorname{count}\left(p_{t}, t\right)\right)}{\sum_{\left(p_{s}, P_{t}\right) \in D(t)} \operatorname{count}\left(p_{s}, s\right)}
$
ここで, $D(t)$ とは,訳文 $t$ の翻訳に使用した対訳辞書を表す. 対訳辞書は用語 $p_{s}$ と訳語候補 $P_{t}$ のペアからなる集合であり, 訳語候補は訳語の集合である. $\operatorname{count}\left(s_{1}, s_{2}\right)$ は文字列 $s_{2}$ における文字列 $s_{1}$ の出現回数を示す.
対訳文の原文に用語が 1 つも含まれないとき,式 (1) の分母は 0 となるため計算できない. このと
き,その対訳文の準拠率は未定義とする。
訳語が複数あるとき, 2.1 節で述べたように用途等が記載されることがある。そのため,用途に沿っているかどうかも考慮することが望ましい。しかし,それは容易でないため,訳語候補のいずれかを使用していれば辞書に準拠していることとする. ある用語の出現回数よりその訳語の出現回数の方が多くなる可能性がある.例えば,原文で省略された主語が訳文で補われている場合などである。そこで,式 (1)において, min 関数を用いて分子の値を分母の値以下にする.すなわち,準拠率が $100 \% を$ 超えないよう制限する。
## 4.3 データ選別
学習データにおいて「準拠率が間値 $\theta$ 以上」,「準拠率が未定義」のいずれかの条件を満たす対訳文を抽出する。本稿では,これを「データ選別」と呼ぶ. データ選別により, 準拠率が低い対訳文を学習データから除くことができる. なお,一般的に学習データは多い方が望ましいため, 準拠率が未定義の文を抽出対象に含める. このデータ選別を手法 2 とする。
準拠率の計算には原文と訳文(参照訳)が必要となる.しかし,検証データ・テストデータにおいて参照訳を用いた前処理を行うのは望ましくない。ゆえに,検証データ・テストデータに対してはデータ選別を行わない。
さらに,データ選別と入力拡張を組み合わせる手法を手法 3 とする.
## 5 実験
評価実験を行い,提案手法の有効性を検証した。
## 5.1 実験設定
手法 1〜3を用いてそれぞれ実験した. ベースラインとしてデータ選別も入力拡張も用いない実験を行った. データ選別に使用する閾值は, $\theta=0,50$, 60,70,80,90,100の 7 種類を試した. なお, $\theta=$ 0 とはデータ選別を使用しないことと同義であり, ベースラインと手法 1 が $\theta=0$ となる.
データセット 2022/11/25 の時点で JLT に公開されていたデータを使用した.
コーパスは,XML 形式で入手した。<ParagraphSentence>の子要素にある $<$ Sentence $>$ 要素を 1 文として扱った. 入手したデータを法令単位で分割し, 学表 4 閾値による学習データ数の変化
習データ 406 法令 (75,776 文),検証データ 56 法令 (8,423 文),テストデータ 51 法令(11,053 文)を得た. また, データ選別の閾値によって学習データ数が変化するため,それぞれのデータ数を表 4 に示す. 検証データ・テストデータに対してはデータ選別を行わないため,データ数は全実験において同一である.
対訳辞書は, ver. 3 から ver. 15 のデータを CSV 形式で入手した. ver. 1 と ver. 2 は PDF 形式のみで公開されているため,本実験では使用しなかった。
評価方法評価には,BLEU [6] と平均準拠率を用いる. 平均準拠率とは,4.3 節で定義した準拠率のマイクロ平均であり,式 (2) で計算される.4.3節で述べたように準拠率が未定義の文が存在するため, マクロ平均ではなく, マイクロ平均を用いる.
平均準拠率 $=$
$
\frac{\sum_{(s, t) \in C} \sum_{\left(p_{s}, P_{t}\right) \in D(t)} \min \left(\operatorname{count}\left(p_{s}, s\right), \sum_{p_{t} \in P_{t}} \operatorname{count}\left(p_{t}, t\right)\right)}{\sum_{(s, t) \in C} \sum_{\left(p_{s}, P_{t}\right) \in D(t)} \operatorname{count}\left(p_{s}, s\right)}
$
翻訳モデル翻訳モデルとして,事前学習済み mT5 [7] のベースサイズモデル3)を使用した.
## 5.2 結果
実験結果を表 5 に示す.
まず,ベースラインと各手法を比較する。手法 1 は,BLEU と平均準拠率ともにわずかにべースラインを上回った. 手法 2 と手法 3 は間値によって BLEU と平均準拠率が向上する場合もあるが,変化しない場合や低下する場合もある. 特に, $\theta=$ 90,100では BLEU が低下した. 次に,手法 2 と手法 3 を同じ閾値で比較すると,後者の方が全体的に BLEU,平均準拠率ともに高い. 最後に,手法 1
3) https://huggingface.co/google/mt5-base
表 5 各手法を用いた実験結果
と手法 3 を比較する. 手法 3 の $\theta=50 \sim 70$ において BLEU, 平均準拠率がともに向上した. 一方で, $\theta=90 , 100$ では平均準拠率は向上しているものの, BLEU が大幅に低下した。
出力された翻訳例を付録 $\mathrm{A}$ に示す.
## 5.3 考察
すべての手法において,表7の例 3 のように,参照訳は用語制約を満たしていないが,モデルの出力は用語制約を満たしているケースが見られる.このとき, 出力が適切な訳文であっても BLEU が低下する. すなわち,参照訳が用語制約を満たしていないために BLEU が低下したと考えられる。
手法 1 は,ベースラインをわずかに上回ったのみであり,入力拡張の効果はわずかであった. 入力拡張の目的は,第 3 節で述べたように<T>タグ内の訳語を出力に含めるようモデルに学習させることである.しかし,対訳辞書に準拠していない文がノイズとなり,その学習が十分にできなかったと考えられる.
手法 3 において,閾値が高いほど BLEU や平均準拠率が向上するわけではなかった. その原因は, 閾値を上げれば学習データ数が減少するためと考えられる. 表 4 に示したように $\theta=100$ における学習データ数は 10,080 文であり, 元データの約 $13 \%$ しかない.
また, $\theta=100$ の学習データは,似ている原文が多い. 表 6 に 2 つの正規表現と,それにマッチした文表 6 正規表現とそれぞれにマッチした文数・学習データに占める割合
数・割合を示す. 2 つとも $\theta=70$ より $\theta=100$ の方が学習データに占める割合が高くなっており,似た文が多いことを示している.原文が似ている場合,訳文も似ることが予想される。すなわち, $\theta=90,100$ では学習データの数が少ないうえに,似た対訳文が多いため,翻訳性能が低下したと考えられる。
以上により,間値を適切に設定したとき,データ選別と入力拡張を組み合わせる手法 3 が,それぞれ単体で使用する手法 1 や手法 2 よりも有効であることを確認した。
データ選別は, 1 文に用語制約が多く含まれる場合に特に有効であると考える。仮に 1 文に含まれる用語制約が高々 1 つであるとすると,各対訳文の準拠率は $0 \%, 100 \%$ ,未定義の 3 通りとなる.このとき,間値を $\theta=100$ 以外に設定しても,結果は変化しないので,意味をなさない,一方で,用語制約が多いときには準拠率が多くの値をとるため,間値の変更に伴って結果も変化し, 適切な閾値を探索することが可能となる. JLT の対訳データは 1 文あたり 11.4 個の用語制約が含まれる. このような用語制約が多い翻訳において,データ選別は特に有効であると考えられる。
## 6 まとめ
本研究では用語制約のある法令翻訳に取り組んだ. JLT の対訳文には,対訳辞書に準拠していない訳文が存在するため, 入力拡張の効果はわずかであった. そこで,準拠率が高い対訳文のみを抽出するデータ選別を提案した. 閾値を適切に設定した場合, データ選別と入力拡張を組み合わせた手法が入力拡張単体より有効であることを実験により示した.
しかし,閾値は高いほどよいということではないため, 適切な閾値の探索が必要であり, それにはコストがかかる. そこで, $\theta=100$ の場合でもよい結果が得られるように,学習データを拡張することは今後の課題である.
## 謝辞
本研究は JSPS 科研費 JP21H03772,JP22H03901 の助成を受けたものです.
## 参考文献
[1] Ke Wang, Shuqin Gu, Boxing Chen, Yu Zhao, Weihua Luo, and Yuqi Zhang. TermMind: Alibaba's WMT21 Machine Translation Using Terminologies Task Submission. Proceedings of the Sixth Conference on Machine Translation, pp. 851-856, 2021.
[2] Chris Hokamp and Qun Liu. Lexically Constrained Decoding for Sequence Generation Using Grid Beam Search. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1535-1546, 2017.
[3] Matt Post and David Vilar. Fast Lexically Constrained Decoding with Dynamic Beam Allocation for Neural Machine Translation. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1314-1324, 2018.
[4] Elise Michon, Josep Crego, and Jean Senellart. Integrating Domain Terminology into Neural Machine Translation. Proceedings of the 28th International Conference on Computational Linguistics, pp. 3925-3937, 2020.
[5] Melissa Ailem, Jingshu Liu, and Raheel Qader. Encouraging Neural Machine Translation to Satisfy Terminology Constraints. Findings of the Association for Computational Linguistics:ACL-IJCNP2021, pp. 1450-1455, 2021.
[6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, $\mathrm{pp}$. 311-318, 2002 .
[7] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A Massively Multilingual Pre-trained Text-toText Transformer. Proceedings of the $\mathbf{2 0 2 1}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 483-498, 2021.
\\
## A 生成された翻訳の例
手法 3 (データ選別+入力拡張)において, $\theta=70$ のとき BLEU,平均準拠率ともに比較的高い. そのため,手法 3 の $\theta=70$ における出力例を表 7 に示す. それぞれの 1 行目には注目する用語制約を記載しており, その内容を表 8 に示す. 表 7 の例 1 では,「秘密」の訳について参照訳は準拠しているが,出力は準拠していない. また,「役員」の訳は参照訳・出力ともに準拠している. 例 2 の出力では,「施行の日」の訳語である $「$ the date on which the Act comes into effect」に習って出力の最後に「comes into effect」が追加されている. ただし,訳語の途中に別の単語が含まれるため,対訳辞書に準拠していないと判定される.例 3 では,「執行官」 の訳が参照訳は準拠していないが,出力では準拠している. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B1-2.pdf | # Post-Editing with Error Annotation for Machine Translation: Dataset Construction using GPT-4
Youyuan $\operatorname{Lin}^{1}$ Masaaki Nagata ${ }^{2}$ Chenhui Chu $^{1}$
${ }^{1}$ Kyoto University ${ }^{2} \mathrm{NTT}$
youyuan@nlp.ist.i.kyoto-u.ac.jp masaaki.nagata@ntt.com chu@i.kyoto-u.ac.jp
}
\begin{abstract}
Despite advancements in Large Language Models (LLMs) and their state-of-the-art Machine Translation (MT) performance, fine-grained Automatic Post Editing (APE) remains useful for MT by aiding in error detection, especially when applied to specific domains. To train such APE systems that incorporate error detection capabilities, APE datasets with error annotation are essential. However, most APE datasets are lack of error annotations. We aim to construct error-annotated APE datasets that improve the error-based editing proficiency of APE systems. We leverage GPT-4, expand post-editing into error-annotated MT datasets. By employing a Chain-of-Thought (CoT) setting that applies an error annotation-based analysis step before post-editing, we ensure the post-editing corrects the errors while maintaining the phraseology. Our experiments on a Japanese-English medical MT dataset reveal that GPT-4, coupled with CoT and error annotations, excels in generating high-quality, annotation-informed post-edits.
\end{abstract
## 1 Introduction
Machine Translation (MT) models, particularly those trained on web-derived parallel corpora, are reported to suffer from reliability issues despite their high average performance, especially when meeting the specific lexicon and stylistic requirements of certain application domains [1]. Automatic Post-Editing (APE) is a post-processing task in a Machine Translation workflow, aiming to automatically identify and correct errors in MT outputs [1]. An APE system is usually acquired by training on datasets comprising triplets of three texts: source $(s r c)$, machine-translation $(m t)$ of $s r c$, and post-edited sentence (pe) of $m t$.
With the remarkable strides made in MT systems, particularly the evolution of Large Language Models (LLMs) in the past two years, we have witnessed a dramatic enhancement in the capabilities of state-of-the-art MT systems [2]. This technological leap brings to the forefront a compelling query: Why not solely rely on these more advanced MT systems for high-quality translations instead of engaging in post-editing?
In response to this question, we contend that the value of post-editing transcends mere improvement in translation quality. A fine-grained APE encompasses the critical functions of detecting, elucidating and rectifying errors within the translations. The post-editing generated by an APE system should based on the error annotations. This process not only refines the output but also contributes to the ongoing improvement and understanding of MT systems.
To achieve such a fine-grained APE process, we argue that the APE dataset needs to come forth with accurate error annotations ( $\mathrm{err}$ ). On this issue, Multidimensional Quality Metrics (MQM) [3] provides the span and category for errors as the error annotations. It is considered as the most reliable human evaluation framework for MT [4]. There have been many datasets annotated based on MQM or MQM-like framework [4, 5]. Then, the challenge lies in using MQM-annotated ( $s r c, m t, e r r$ ) triplets to generate accurate post-edited translations ( $p e$ ), requiring not just error correction but a nuanced understanding of the errors to maintain the integrity and style of the source while enhancing translation quality.
In this work, we explore the efficacy of GPT-4 on the task of construction of APE datasets with error annotations in a Chain-of-Thought (CoT) setting, i.e., applying an error analysis step to the translations before post-editing. We evaluate our method APE on a Japanese-to-English medical MT dataset and extend this dataset with fine-grained post-editings. We show that GPT-4 produces meaningful human-judgment-aligned $p e$ that also leads to general
quality improvements. Also, we find GPT-4 is capable of accurately using specialized terminology based on reference. The results demonstrate that $\mathrm{CoT}$ with error annotation is critical in constraining the pe to be close to the initial translation while fixing the errors.
## 2 The Automatic Post-Editing Task
In most settings (e.g., the WMT task on MT Automatic Post-Editing, ${ }^{1)}$ ) the post-editing task is formalized as follows: given $s r c$ and $m t$, generate the most likely pe, i.e.:
$
p e=\underset{\hat{p e}}{\operatorname{argmax}} P(\hat{p e} \mid s r c, m t)
$
In which $P(\hat{p e} \mid s r c, m t)$ denotes the probability of a postediting $\hat{p e}$ given $s r c$ and $m t$. Compared to the vanilla MT task, the distinction of the APE task is that the $m t$ is also entered as the input. It is conceivable that, in extreme cases, a powerful enough system could generate accurate $p e$ based only on the $s r c$ without referring to the $m t$. In such case, the new translation may not qualify as an "edited text" but is simply a "better quality translation." The whole task remains a vanilla MT task.
## 3 Method
Instead, we want the APE system to be based on the $m t$ to correct errors while retaining the phraseology as much as possible. In other words, we believe that compared to the MT system, the APE system, while outputting better quality translations, should also correct errors in initial translations while preserving other correct expressions. Thus, the APE system should identify errors in the translation before editing the translation. Then, the task should be formalized as follows:
$
p e, e r r=\underset{\hat{p} e, e \hat{r} r}{\operatorname{argmax}} P(\hat{p e}, e \hat{r} r \mid s r c, m t)
$
During the APE process, the APE system is tasked with concurrently identifying errors in the translated text. The objective is to preserve the original diction and grammatical structure, correcting only the identified errors.
To train a system accomplishes the above task, we need to include datasets with quaternions ( $s r c, m t, e r r, p e$ ). Many studies have shown that LLMs can perform a series of complex tasks through In-Context-Learning (ICL) [6] and CoT [7]. We propose to constructing the APE dataset with the above quaternions according to LLMs.
1) http://www2.statmt.org/wmt23/ape-task.html
Given a MT dataset annotated under MQM framework[3], comprising triplet ( $s r c, m t, e r r)$, we generate and expand $p e$ into this dataset. For ICL, multiple demonstrations are provided, each using ( $s r c, m t, e r r)$ as input. We meticulously craft error-annotation based $p e$ outputs for these demonstrations, with the quality of $p e$ being validated by native speakers. In our prompts, we implement CoT, structuring the model's task into two phases: initially generating a detailed description of $e r r$, followed by editing the $m t$ based on this description. This two-step approach ensures a thorough understanding and accurate correction of errors, enhancing the overall quality and reliability of the post-edited output.
APE systems are frequently employed in domainspecific environments [1] to rectify inaccuracies generated by MT systems trained on general corpora. In such specialized contexts, maintaining the terminological precision of the constructed dataset is paramount. To make the terminology output by an MT model accurate, a common approach is to fine-tune the MT model for domain adaptation [8]. It usually takes extra time and computation resources. During the dataset construction phase, we enhance terminological accuracy by utilizing human-annotated references ( $r e f$ ) when available. Note that $r e f$ may not serve as a qualified $p e$ to the $m t$, due to its lack of direct reference to the $m t$. Specifically, We use the $r e f$ also as an input, provide a task description in the propmt and instruct the model to refer to the terminology that occurs in the $r e f$. Demonstrations are provided to show how the same terminology as $r e f$ is used in pe without replicate the ref.
## 4 Experimental Settings
Dataset: We experiment with an English-to-Japanese Medical MT dataset (EJMMT) published by Arase et al. [5], which is annotated with error spans and error types. The annotation identified 4, 492 errors on 1, 903 translation output, each with at least one error. Table 1 shows a few samples from the dataset, covering all the error types. All errors fall into a customized error typology containing the following five types:
- Addition: The target text includes text not present in the source.
- Omission: Content is missing from the translation that is present in the source.
- Mistranslation: The target content does not accurately
& \\
Table 1 Selected examples in the EJMMT dataset. Colored texts indicate the annotated error spans, and the type corresponds to the following: Addition, Omission, Mistranslation, Grammar, Terminology.
represent the source content.
- Grammar: Syntax or function words are presented incorrectly.
- Terminology: The target text is not suitable in terms of the domain of the document.
Note that 1,697 errors fall in "Terminology" catagory inside 4, 492 errors. MT translations are output half by Google's neural MT system [9] and half by NICT's neural MT system [10]. For each source sentence, a corresponding Japanese translation is available as the reference, prepared by human translators with a professional review.
To compare the methods under various settings, we randomly selected 64 samples from the dataset as the test set and did experiments on them. We then used the optimal setting on the experiments for the entire dataset.
Prompt: We experiment with gpt (gpt-4-turbo) in our experiments. We experiment under four prompt settings:
- (i) gpt: We use a prompt that describes the system's role as a translator.
- (ii) gpt $+m t$ : We use a prompt that describes the system's role as a post-editor.
- (iii) gpt + mt + CoT: We use a prompt that describes the system's role as a post-editor and under the CoT setting.
- (iv) gpt $+m t+$ CoT + ref: We use a prompt that describes the system's role as a post-editor, and under the CoT setting, the system can refer to the $r e f$ for terminologies.
For each setting, we provide 8 demonstrations covering all the error types in the EJMMT dataset. All used prompts are shown in appendix A.1.
Metrics and Evaluation: For quality evaluation, we use two reference-free Quality Estimation (QE) models: COMET-22 (wmt-22-cometkiwi-da) [11] and COMET-23 (wmt-23-cometkiwi-da-xl) [12]. Higher scores represent higher quality. We use COMET-* to denote both COMET-
Table 2 Results on the randomly selected samples $(N=64)$. A situation with a higher BLEU score but a lower TER with $m t$ indicates a better result. Bold items stand for the optimal results.
Table 3 Results on the whole dataset $(\mathrm{N}=1,903)$. A situation with a higher BLEU score but a lower TER with $m t$ indicates a better result. Bold items stand for the optimal results.
22 and COMET-23 below. To measure the similarity with $m t$, we use the average Translation Edit Rate (TER) [13] implementation from PyTER ${ }^{2}$. Texts with lower TER need fewer edits to make the text the same as the $m t$, indicating that the text is closer to $m t$ regarding phraseology.
## 5 Results
Translation Quality improvement Table 5 shows the results on the randomly selected 64 samples. Throughout, we find that: First, all settings' COMET-* scores exceeded the ref human translators gave, showing that the edited text has a higher translation quality with these settings. Meanwhile, their TERs are also lower than the $r e f$, which means that the words and phrases of the edited text are stylistically closer to the machine-translated text. These indicators provide evidence for the high quality of the dataset constructed based on GPT-4. Second, comparing setting
& & & & \\
Table 4 Selected examples of the post-editings. Bold texts denote a accurate medical terminology. Colored text denote an inaccurate medical terminology.
Figure 1 The COMET-23 scores before and after editing the entire dataset. The $\mathrm{X}$-axis is the score of $m t$, and the $\mathrm{Y}$-axis is the score of $p e$. pe stands for the gpt $+m t+\mathrm{CoT}+r e f$ setting. Each point denotes a sentence in the dataset. The solid line represents the line $y=x$. The dotted line indicates the average score. $74.35 \%$ of the sentences get improved in score after editing.
(ii) with setting (i), the inclusion of $m t$ did not increase the COMET-* score; it even lowered it. TER is slightly lower. Both settings behave similarly. This result suggests that the mere inclusion of $m t$ allows GPT-4 to treat the task as MT rather than APE. Third, according to the results of settings (iii) and (iv), CoT dramatically influences the way GPT-4 performs its tasks. The TER was considerably reduced. At the same time, the COMET-* score maintains the original GPT4 level. These results lead us to believe that GPT-4 can provide high-quality translated text, and CoT is an effective method to constrain GPT-4 to perform APE tasks rather than MT tasks.
We constructed the post-editing dataset using setting (iv) on the entire dataset. Table 5 shows the results. Similar to the results obtained in tests using small samples, the quality of GPT-4 translations exceeds that of the ref supplied by human experts. With CoT, the newly generated translations are closer to $m t$ while improving quality. Figure 1 shows the COMET-23 scores before and after editing the entire dataset in detail. In this figure, $74.35 \%$ of the translations are improved after post-editing.
## Accurate Use of Terminology
Table 5 presents a curated selection of examples illustrating this aspect. These instances reveal that while GPT-4 translations exhibit proficiency, they are not immune to occasional inaccuracies in terminological choices. However, the incorporation of ref enhances GPT-4's capability in picking terminology. It adeptly extracts and applies accurate medical terminology from $r e f$, demonstrating its utility in bridging the gap between automated translations and the exactitude required in medical contexts.
## 6 Summary
This study has demonstrated the remarkable potential of leveraging LLMs for APE in domain-specific machine translation. Our experimental results convincingly show that GPT-4 can perform high-quality translation postediting in the English-to-Japanese medical domain. This improvement is evident even when compared to the humancrafted reference translations. It's also shown that incorporating a CoT approach with error annotation proved crucial in steering GPT-4's capabilities toward effective APE. This methodology ensures that the post-edited translations adhere closely to the original texts regarding phraseology while simultaneously correcting errors.
We expand the EJMMT dataset with post-editings and error annotation in natural language. In the next step, we will try to train an APE model with the same high performance and smaller size using the expanded dataset.
## Acknowledgement
This work was supported by NTT.
## References
[1] Pushpak Bhattacharyya, Rajen Chatterjee, Markus Freitag, Diptesh Kanojia, Matteo Negri, and Marco Turchi. Findings of the wmt 2023 shared task on automatic postediting. In Proceedings of the Eighth Conference on Machine Translation, pp. 672-681, 2023.
[2] Wenhao Zhu, Hongyi Liu, Qingxiu Dong, Jingjing Xu, Lingpeng Kong, Jiajun Chen, Lei Li, and Shujian Huang. Multilingual machine translation with large language models: Empirical results and analysis. arXiv preprint arXiv:2304.04675, 2023.
[3] Valerie R Mariana. The Multidimensional Quality Metric (MQM) framework: A new framework for translation quality assessment. Brigham Young University, 2014.
[4] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 1460-1474, 2021.
[5] Takeshi Hayakawa and Yuki Arase. Fine-grained error analysis on english-to-japanese machine translation in the medical domain. In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pp. 155-164, 2020.
[6] Qingxiu Dong, Lei Li, Damai Dai, Ce Zheng, Zhiyong Wu, Baobao Chang, Xu Sun, Jingjing Xu, and Zhifang Sui. A survey for in-context learning. arXiv preprint arXiv:2301.00234, 2022.
[7] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Fei Xia, Ed Chi, Quoc V Le, Denny Zhou, et al. Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, Vol. 35, pp. 24824-24837, 2022.
[8] Chenhui Chu and Rui Wang. A survey of domain adaptation for neural machine translation. arXiv preprint arXiv:1806.00258, 2018
[9] Melvin Johnson, Mike Schuster, Quoc V Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, et al. Google' s multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 2017.
[10] Rui Wang, Masao Utiyama, Andrew Finch, Lemao Liu, Kehai Chen, and Eiichiro Sumita. Sentence selection and weighting for neural machine translation domain adaptation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 26, No. 10, pp. 1727-1741, 2018.
[11] Ricardo Rei, Marcos Treviso, Nuno M Guerreiro, Chrysoula Zerva, Ana C Farinha, Christine Maroti,
José GC De Souza, Taisiya Glushkova, Duarte M Alves, Alon Lavie, et al. Cometkiwi: Ist-unbabel 2022 submission for the quality estimation shared task. arXiv preprint arXiv:2209.06243, 2022.
[12] Ricardo Rei, Nuno M Guerreiro, José Pombal, Daan van Stigt, Marcos Treviso, Luisa Coheur, José GC de Souza, and André FT Martins. Scaling up cometkiwi: Unbabelist 2023 submission for the quality estimation shared task. arXiv preprint arXiv:2309.11925, 2023.
[13] Matthew Snover, Bonnie Dorr, Richard Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, pp. 223-231, 2006.
[14] Chengrun Yang, Xuezhi Wang, Yifeng Lu, Hanxiao Liu, Quoc V Le, Denny Zhou, and Xinyun Chen. Large language models as optimizers. arXiv preprint arXiv:2309.03409, 2023.
## A Appendix
## A. 1 The Prompt
Following recent work on automatic prompt engineer [14], the prompt used for generating post-editing has been revised by GPT-4 iteratively five turns. We pick up a prompt that generates post-editing with the highest COMET-23 score in randomly picked 64 samples as the final prompt. The prompts are shown in Table A.1.
System: As an expert in medical translation from English to Japanese, your task is to analyze the provided text pairs and identify discrepancies that affect the translation's accuracy and clarity. For each English source and Japanese translation pair, consider the following error types:
1. mis-translation: Note instances where the Japanese translation fails to capture the precise or contextual meaning of the English text.
2. syntax error: Identify any structural issues in the Japanese sentences that lead to grammatical errors or disrupt the natural flow of reading.
3. lexical choice: Point out where the choice of words in Japanese does not suit the medical context, is too general, or too ambiguous.
4. under-generation: Detect omissions in the Japanese text where essential information or terms from the English source are missing.
5. over-generation: Highlight any additional information or terms in the Japanese translation that are not present in the English source.
For each identified error, provide a concise explanation and suggest a more accurate or appropriate translation. Focus on ensuring that the Japanese translation accurately reflects the medical terminology, context, and intent of the English source while maintaining a professional and reader-friendly tone. Utilize the reference for accurate terminology. Your goal is to enhance the translation to be as precise and clear as possible, making it a reliable medical resource.
User: $\quad$ English source: Regular exercise can improve both of these qualities.
Japanese translation: 通常の運動は、これらの性質を改善することができる。
Hints: 1. “通常の”: mis-translation; 2. “both of": under-generation
Reference: 定期的な運動によってその両方を向上させることができます。
Assistance: Errors:
1. The word “通常の” in Japanese doesn't accurately convey the English meaning of "Regular".
2. The Japanese translation omits the specific emphasis on "both" of the qualities, making it less precise.
Post-edited translation: 定期的な運動は、両方の性質を改善することができます。
(... more 7 demonstrations...)
User: $\quad$ English source: $\{s r c\}$
Japanese translation: $\{m t\}$
Hints: $\{$ Spans of $e r r\}$
Reference: $\{$ ref $\}$
Table 5 The prompt of gpt $+m t+$ CoT $+r e f$ setting. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B1-3.pdf | # 日本語 $\longrightarrow$ 琉球諸語翻訳モデルの構築に向けて
當間愛晃 ${ }^{1}$ 狩俣繁久 ${ }^{2}$ 岡嵪威生 ${ }^{1}$
${ }^{1}$ 琉球大学 工学部工学科知能情報コース
${ }^{2}$ 琉球大学 戦略的研究プロジェクトセンター 産学官連携研究員
tnal@ie.u-ryukyu.ac.jp karimata@11.u-ryukyu. ac.jp
okazaki@ie. u-ryukyu. ac. jp
## 概要
消滅の危機に瀕している琉球諸語の記録,記述や復興への一助のため, 日本語を琉球諸語へ機械翻訳するモデル構築に向けた 3 つの検証を行った. 実験結果から, 対象言語を含まない翻訳学習を一度行い, その上で日琉翻訳学習を行うことが翻訳品質の向上に寄与することを確認した. 品質改善に向けては,本ドメインに特化した評価指標の構築,ルールベー ス翻訳した中間言語を介した翻訳,検証用・テスト用コーパスの構築,新規トークン埋め込みベクトルの検討が寄与すると考えられる。
## 1 はじめに
グローバル化が進む中, 世界中で約 2,500 の言語 (日本では 8 つの言語)が近いうちに消滅する危険性があると指摘されており, 危機言語や危機方言に関する記録・記述・復興といった研究が取り組まれている [1].
危機言語の一つに琉球諸語がある. 琉球列島の人口や面積は日本全体の約 $1 \%$ に過ぎないが,広い海域に点在しているために琉球諸語内部の方言差は非常に大きく, シマ (琉球諸語の最小単位としての島や集落のこと)が違うと何を言っているのか理解できないことがあるほど多様である。琉球は日本国内にあってマイノリティだが,琉球内部にもマジョリティとマイノリティがあり,小さなシマはマイノリティの中のマイノリティとして二重, 三重の圧力を受けている. 復興に向けた取り組みは重要だが,子供の立場からすると何故方言教育が必要なのか,方言教育を通して何を学ばせ,どんな人間になってもらいたいのか等の議論は不十分 [2] である.
我々は, 消滅の危機に瀕している琉球諸語の記録,記述や復興への一助のため, 日本語を琉球諸語へ翻訳(以降日琉翻訳と呼ぶ)するモデルの構築を目指
している.著者の一人である狩俣は琉球諸語における 28 の方言についての文法記述 [3] を初めとし,琉球諸語の記録・記述・復興に向けた取り組みを数多く行っている. これらの研究で蓄積されたデータを元に翻訳コーパスを構築し,日琉翻訳モデルの構築を行うことを目指す.コーパスは最終的には数十万文規模の対訳文(日琉対訳コーパス)で構成されることを想定しているが,元データの大部分は方言辞典であり,対訳文そのもの以外にも利用可能なデ一夕(例えば単語そのもの)が含まれている。これらをどこまで, どのように利用するかについては議論の余地がある.
本研究では小規模の対訳コーパスを用いた日琉対訳モデル構築を行い,今後の方向性を検討するための予備実験を行った.データは「動詞活用調査票読谷村儀間」から約 200 件の対訳文を用意した.翻訳モデルは日本語を含む多言語事前学習済みモデルである google/mt5-base [4] をべースとし,以下の 3 つのパターンでファインチューニング(以降学習と呼ぶ)を行った。基本的にはそれぞれ処理を追加することでBLEUスコアの改善を確認することができたが,単語トークンの追加についてはまだ検討を要する結果となった。
- ケース 1 : 日琉対訳コーパスのみで学習.
- ケース 2 : 日本語を含む別の対訳コーパス (Asian Language Treebank; ALT [5]) で学習後,日琉対訳コーパスで学習.
- ケース 3 : 一部単語をトークン設定後, ケース 2 にて学習.
## 2 実験設計
## 2.1 日琉対訳コーパスの構築
狩俣から提供を受けた対訳コーパスの例を表 1 の元文に示す. 基本的には方言辞典に掲載している例
文抜粋であり,多くは chat ドメインに近い.ただし対話文とはなっておらず,単語を用いた話し言葉の例となっている。大半は単文だが,例示したように複数文が含まれることもある。また,「弟がこそ食ベよったんだ」という言い回しからはやや古い言い回しが用いられている印象を受ける。
表記上の特徴としては, 日本語文・琉球諸語文のどちらにも句に準ずる箇所で区切り文字(スペース) が挿入されている.これにより句単位のマッチングについては対応関係を観察しやすいコーパスとなっているが,区切り文字の挿入誤り(表 1 では琉球諸語文の 2 文目冒頭に挿入がない)も見られた.一方,日本語文 $\rightarrow$ 琉球諸語文への翻訳への入力文として考えた場合,ユーザに適切なスペース挿入を要求することは難しいと考えられるため, 日本語文においてはスペースを削除することとした。
表 1 日琉対訳文の例(スペースを—に変換して掲載)
表 2 特殊表記の例
& 例文 & 備考 \\
スペース以外にも表 2 のように記号を用いた表記があり,事前処理が必要な例文も存在することを確認している.これらについては仮処理として「/を含む文を除外し,残りについてはそのまま用いることとした。これにより合計 211 件の日琉対訳コーパスを構築した。
## 2. 2 実験手順詳細
google/mt5-base を用いた 3 種類の検証を行った。 ケース 13亿共通する前処理を以下に列挙する.
日英翻訳,英日翻訳,日琉翻訳それぞれに対応
する合計 3 個の専用トークンを追加した.
一日琉対訳コーパスをシード值により固定した上
で train : val : test $=8: 1: 1$ で分割して利用した.
一検証データに対する損失が 3 エポック連続で更新されない場合には EarlyStopping により停止させた. テストデータによる評価は停止時点でのモデルにより行った.
初期学習率を $\mathrm{lr}=5 \mathrm{e}-4$ とし,
get_linear_schedule_with_warmup を用いて
num_warmup_steps $=\operatorname{int}($ total_steps * 0.01) によ
り減衰させた。
- 最大トークン数を 50 とし, 超える場合には打ち切り処理をした。(該当サンプルを除外することはしていない)
## 2.2. 1 ケース 1 : 日琉対訳コーパスのみで 学習
ケース 1 では,最も素朴に日琉翻訳をファインチユーニングにより学習させた.
## 2. 2.2 ケース 2 : ALT で学習後, 日琉対訳コ 一パスで学習
ケース 2 では, 2 段階のファインチューニングを行った.
1 段階目の学習では, ALT の学習用データから約 1.8 万件の日英・英日対訳コーパスを用い,1 エポックのみ学習させた。学習時にはランダムに日英・英日いずれかを選ばせたため, 大凡 9 千件ずつ学習を行ったことになる.この時点では日英翻訳, 英日翻訳の専用トークンのみを用いており,日琉翻訳の専用トークンを用いていないが,日琉翻訳を包含する 「翻訳タスク」を一度学習させることで 2 段階目の学習がより効率良く行われることを期待して実施した.
2 段階目の学習では,ケース 1 の日琉翻訳を学習させた. なおこの際の学習率については再び初期値 (5e-4)から行った.
## 2.2. 3 ケース 3: 一部単語をトークン設定後, ケース 2 で学習
事前学習済みモデルで用いられているトークナイザはそこで用いられたコーパスで最適となるように設計されていることから,本来であれば専用のコー パスで設計し直すことが望ましい。一方で事前学習をするだけの大規模コーパスを用意することは難しい. 折東案として,今回は方言辞典が元となっていることを踏まえ,一部の単語を通常トークンとして新規追加することの影響を観察することとした。
表 3 に追加した琉球諸語単語を示す. すべての単語が方言辞典の項目として掲載されているとは限らないため, 今回は一部の名詞を登録候補とした。このうち細字の 3 つの単語(ワン,ヤー,チュー)については既存トークナイザに登録されていたため登録除外し, 太字の 6 つの単語(イヤー,ワッター, ナチ, メーナチ, ゴーヤー, ヒティ)を追加した. これにより表 4 のように新規トークンを用いてトー クナイズされることを確認した。
表 3 登録候補と追加した単語一覧(太字が実際に追加した単語)
表 4 トークン追加により期待する効果
なお,新規追加した 6 つのトークンの埋め込みベクトルは初期状態であり,このままでは翻訳学習がスムーズに行われない可能性が高い。そこで今回は 「該当する日本語単語トークン列の埋め込みベクトルから求めた平均ベクトル」を新規トークンの埋め込みベクトルとして設定した。
新規トークンの追加とそれらの埋め込みベクトルを設定し終えた後は,ケース 2 の 2 段階のファインチューニングを行った.
## 2. 3 評価指標
機械翻訳系の論文でよく見かける指標である BLEU [6], ROUGE (ROUGE-1, ROUGE-2, ROUGE-L), TER [7] により評価を行った. なお, ROUGE については「トークン n-gram の一致率」として利用するため,独自実装した。
## 3 実験結果と考察
## 3.1 損失推移の観察
図 1 にケース 1 とケース 2 (2 段階目) の学習中における損失推移を示す. ケース 1 では初期損失が 10 前後から減り始めるのに対し, ケース 2 の 2 段階目では 1 前後からのスタートとなっている。図には掲載していないが,ケース 3 もケース 2 と同様の傾向であった。これらのことから,対象言語を含まなくとも,原言語を含む日英・英日翻訳を行うことで対象言語翻訳の学習を効果的に進めることが可能であることが分かる.
図 1 損失推移(左: ケース 1 , 右: ケース 2 )
## 3.2 評価指標の観察
表 5 に評価指標に基づくスコアを示す. 2 段階フアインチューニングを行ったケース 2 とケース 3 は BLEU スコアを 2 桁改善, ROUGE スコアを 3 倍強に改善, TERを 25 ポイント改善することができた.殆どの指標においてケース 3 がベストであったが, ROUGE-2 スコアにおいては新規トークンを追加しないケース 2 の方が上回る結果となった.
ケース 3 で ROUGE-2 スコアが下がった要因は,新規トークンを追加したこととそれらの埋め込みべクトル初期值を平均ベクトルとして設定したことの影響だと思われる。しかしながら,テストデータにおいて新規トークンは原言語,目的言語いずれにも出現していなかった. 現時点ではこれ以上の分析は行えていない.
## 表 5 評価指標に基づくスコア
## 4 議論
翻訳モデルの性能検証に用いられることの多い代表的な指標は,複数指標を組み合わせたとしても目安として機能するに留まり,今後どのような改善をしていくべきかを検討するにはドメインに応じた個別指標の検討が必要であることがわかった。
今回の日琉翻訳タスクにおいては,文例が句に準ずる形で区分けされていることと,文例以外の情報源として単語訳が利用可能である可能性が高い。これらを活用することで,名詞のように活用することのない体言を主体とした名詞句抽出に基づいた細かな評価指標の設計を検討中である。なお,琉球諸語に限った話ではないが,名詞には複数候補があり得ることから多対多を踏まえた評価指標の検討も必要だと思われる。
もし, 名詞句に基づく分析を高品質で行えるならば,ここで用いたルールに合致する範囲で部分翻訳した中間言語文を作成し,「日本語↔中間言語」を
ルールベース翻訳で行い,「中間言語 $\rightarrow$ 琉球諸語」 を機械翻訳対象とすることでルール化困難な部分に焦点を当てて学習させることがしやすくなると思われる。
一定程度の翻訳品質を確保できた後は逆翻訳
$[8,9]$ による疑似コーパス生成により頑健性向上を
検討したい。しかし今回の設定では,日本語文からは区切り文字を除去し,琉球諸語文からは区切り文字を残したまま扱っていることの影響(区切り文字を含まない琉球諸語文を扱うことの影響)を検討できていない。まずは日琉コーパスのみで琉日翻訳するところから取り組みたい.
新規追加したトークンの初期埋め込みベクトルについては単純に平均ベクトルとして設定したが,これがベストであるかは議論の余地がある。また既に登録されていたトークンについては琉球諸語と異なる語彙として学習されている可能性が高い。語彙分析や異なる語彙の共存方法等を検討する必要があるだろう。
これらに加えて,検証用・テスト用コーパスの設計が必要だと思われる。文例が方言辞典における例文であることから,全ての単語を学習させるにはすべての例文を学習させる必要がある.このためには,
(分量はさておき)均衡コーパス [10] のように全体像を把握できるような複数観点からの例文を含む形で検証用・テスト用コーパスを構築することが望ましいだろう。
## 5 まとめと今後の課題
琉球諸語辞典に含まれる対訳文を前提とした日琉翻訳モデルの構築に向けた検証を行った. 実験結果から小規模対訳コーパスであったとしても,原言語を含む異なる対象言語(英語)に対する翻訳学習を行っておくことが、本来の対象言語(琉球諸語)に対する翻訳品質向上に寄与することを確認した。今後は名詞句分析を中心とした評価指標構築,ルールベース翻訳した中間言語を介した翻訳、検証用・テスト用コーパスの設計を検討していきたい.
## 参考文献
[1] 一. 危機言語・危機方言の記録と記述と復興. 国立国語研究所. (オンライン) (引用日 : 2023 年 12 月 18 日.)
https://www2.ninjal.ac.jp/openhouse/2020/pdf/b-03.pdf.
[2] 消滅危機言語の教育可能性を考える一多様な琉球諸語は継承できるか一。狩俣繁久,島嶼地域の新たな展望一自然・文化・社会の融合体としての島々,九州大学出版会, 2014 年, 263-279.
[3] -. 消滅危機言語としての琉球諸語・八丈語の文法記述に関する基礎的研究. 基盤研究(A), 研究代表者: 狩俣繁久. (オンライン) (引用日 : 2023 年 12 月 18 日.)
https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-2424 2014/.
[4] mT5: A massively multilingual pre-trained text-to-text transformer. Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel. Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2021, 483-498.
[5] Introduction of the asian language treebank. iza, Hammam and Purwoadi, Michael and Uliniansyah, Teduh and Ti, Aw Ai and Aljunied, Sharifah Mahani and Mai, Luong Chi and Thang, Vu Tat and Thai, Nguyen Phuong and Chea, Vichet and Sam, Sethserey and others. IEEE, 2016 Conference of The Oriental Chapter of International Committee for Coordination and Standardization of Speech Databases and Assessment Techniques (O-COCOSDA), 2016, 1-6.
[6] BLEU: a Method for Automatic Evaluation of Machine Translation. Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), 2002, 311-318.
[7] A Study of Translation Edit Rate with Targeted
Human Annotation. Matthew Snover, Bonnie Dorr, Rich Schwartz, Linnea Micciulla, John Makhoul. Proceedings of the 7th Conference of the Association for
Machine Translation in the Americas: Technical Papers. 2006, 223-231.
[8] Improving Neural Machine Translation Models with Monolingual Data. Rico Sennrich, Barry Haddow, Alexandra Birch. Proc. 54th Annual Meeting of the Association for Computational Linguistics, Vol. 1, Long Papers, 2016, 86-96.
[9] サンプリング生成に基づく複数逆翻訳を用いたニューラル機械翻訳. 今村賢治,藤田篤,隅田英一郎. 人工知能学会論文誌, 2020,35 巻, 3 号, p. A-JA9_1-9.
[10] KOTONOHA『現代日本語書き言葉均衡コーパス』の開発(特集>資料研究の現在). 日本語の研究, 2008, 4 巻, 1 号, 82-95.
## A 翻訳例
ケース 13のモデルを用いて,テストデータを与えた際の翻訳例を表 6 に示す. 太字は対象言語と一致していると思われる箇所である(目視確認). 1 文のみ完全一致した生成文(no. 9 の 2 文目)があり,初めて覚えた文は「俺じゃないよ(ワンネーアランドー)」であった。ただしこれは学習データにも含まれていた文例であった。ケース 3 は最後に句読点を複数書くことが多いようだ.
表 6 翻訳例
& & & & \\
## B 計算機資源を踏まえた見積もり
今回の検証は M1 MacBookAir 16GB で行った。日琉対訳コーパス 211 件を train:val:test=8:1:1 で分割することで,学習データ 168 件を学習時に用いた. 1 エポックあたりにかかった実行時間は 2 分弱であり,大凡データ 100 件あたり 50 秒程度である.最終的にコーパスを 50 万件用意することができたとすると,同環境では 1 エポックあたり約 69 時間(約 2.8 日),10 エポックならば約 28 日かかることとなる. GPU 環境下で 10 倍程度に高速化できたとすると 10 エポックを約 2.8 日にて終了できそうだ。 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B1-4.pdf | # 重文・複文翻訳における Transfomer の性質
丸山京祐 ${ }^{1}$ 村上仁一 ${ }^{2}$
1 鳥取大学大学院持続性社会創生科学研究科
2 鳥取大学工学部
${ }^{1}$ m23j4056b@edu.tottori-u.ac.jp
${ }^{2}$ murakami@tottori-u.ac.jp
## 概要
本論文では,重文・複文の翻訳において対訳単文を学習することが精度に与える影響を Transformer とRNNを比較し調査した. 光の結果,自動評価指標では Transformer は RNNよりも対訳単文が翻訳精度向上に貢献することが分かった.しかし, 人手評価でTransformer と RNN を比較した結果,自動評価指標の数値から期待されるほどの高い翻訳精度が得られなかったことを示す.
## 1 はじめに
近年,機械翻訳の分野において Transfomer が高く評価されている [1] . Transfomer はアテンション機構を持ち , 単語同士の依存関係を学習できる。
乥こで,重文・複文の翻訳について考えた.重文・複文の翻訳は複杂倠な文構造を翻訳することが重要である.文構造を翻訳するためには句や係り受けといった単語の依存関係を捉えることが必要になる.光のため, アテンション機構により単語の依存関係を適切に捉えることが翻訳精度向上に堑がる.また, 単語の依存関係を学習するために対訳単文の学習を考えた . 単文は単純な構造を持つため,単語の依存関係を学習しやすい.したがって, Transformer の学習コーパスに対訳単文が多く含まれることにより文構造を理解しやすくなる. 光して,重文・複文の翻訳精度向上に繋がると推測できる。
本論文では,対訳単文を変化させながら学習することで重文・複文の翻訳精度に与える影響を Transformerと RNN を比較し調査した。
## 2 先行研究
本研究で考察する翻訳モデルについて説明する。
## 2.1 再帰的ニューラルネットワーク (RNN)
2014 年にニューラルネットワークを使った機械翻訳は提案された. 特に再帰的ニューラルネットワーク (RNN) を用いて単語の語順を学習する seq2seq モデルが注目された [2] .
## 2.2 Transformer
Transformer は Vaswani らによって提案された [3] .従来の RNN の考え方に基づく機械翻訳モデルは長い文や複雑な文を処理することが難しい,光の解決策として,アテンション機構を組み込んだ手法が導入されていた [4] . 光れに対して,Vaswani らはRNN に基づく手法では根本的な解決には限界があると考えた.光こで,アテンション機構のみに依存する手法としては提案された。
## 3 実験
本実験は,以下の手順で行う.
1. 重文・複文のみの対訳コーパスに対訳単文を少しずつ加えていき,複数のコーパスを作成する
2. 各々のコーパスを Transformer モデルと RNN モデルで学習し翻訳モデルを作成する
3. 2 で作成した全ての翻訳モデルで重文・複文のテスト文を翻訳する
行う
## 3.1 実験条件
本実験の実験条件を示す . 日本語の分かち書きには mecab-python3 1.0.6を使用する. 辞書は unidic 1.1.0を使用する. NMT の学習・翻訳には OpenNMTpy 2.3.0 を使用する. 基本的に翻訳モデルのパラメータは Vaswani らの研究 [3],RNN は Luong らの
研究 [4] に従う.ただし, Luong らの RNN はアテンションベース RNN モデルである .
## 3.2 コーパス
使用するコーパスは電子辞書などから抽出した対訳文から作成された日英対訳単文コーパスと日英対訳重文・複文コーパスである [5] . 表 2 に使用したコーパスの情報を示す.また,表 3,4 にコーパスの一部を示す.
表 3 日英対訳単文コーパスの例文 1 ドル紙幣を崩した。 $\begin{aligned} & \text { She broke a dollar bill into } \\ & \text { change. }\end{aligned}$
あかりがー晚中ついて The lights have been burning いる。 all night.
表 4 日英対訳重文・複文コーパスの例文毎日自転車に乗って通 I ride my bicycle to and from 学しています。 I ride my bicycle to 毎日タイプライターで Adaily stint at the typewriter 決まつた分量だけの仕 is excellent discipline for a 事をするということは writer.文筆家には優れた修業法だ。
表 5 に実験で作成した学習用コーパスにおける,対訳単文と対訳重文・複文の数を光れ光れ示す。
## 4 実験結果
## 4.1 自動評価
本実験では,自動評価指標として BLEU[6], METEOR[7], TER[8], RIBES[9] を使用した . Trans- former で学習した結果を表 6 に示す.また,RNNモデルで学習した結果を表 7 に示す. テストデータは重文・複文コーパスのテスト文 9,243 文である。
表 6 Transformer モデルの自動評価
表 7 RNN モデルの自動評価
表 6,7 より, RNN モデルの単文 163,188 文の BLEU 值を除き, 対訳単文の増加に従い精度が向上している. Transformer と RNN の結果を比較すると,対訳単文を学習しないときは RNN がより高い精度を示す.しかし,対訳単文の量が増加するにつれて Transformer の精度の上昇がより大きくなっている。特に, 重文・複文 92,427 文 + 単文 163,188 文の結果では Transformer は RNN より BLEU 値で 0.041 大きい値を示している。
## 4.2 人手評価
Transformer とRNNを比較した際,自動評価で特に大きい差があった重文・複文 92,427 文 + 単文 163,188 文で学習した結果の人手評価を行った.テスト文から 100 文を抽出し,著者を含む 5 人で対比較評価を実施した . kappa 值は 0.55 であった . 評価基準を表 8 に示す. 評価結果を表 9 に示す.
表 8 評価基準
表 $9 より$, 人手評価においては transformer と RNN の精度は同等か RNN の方がわずかに精度が高い。
## 4.3 出力結果の例文
表 10,11,12,13,14 に出力結果の一部を示す.
表 9 重文・複文 92,427 文 + 単文 163,188 文で学習した時の Transformer と RNN の対比較評価
\\
表 10 では , Transformer の出力は誤訳とは言えない. 光れに対して,RNN の出力は「直面する」を意味する動詞の「face」が名詞のような用法で 2 回出現し「冷静」は翻訳されていない。
\\
表 11 では , RNN の出力は参照文と比較すると主語が異なる.しかし,テスト文の情報では主語が $\ulcorner\mathrm{we}($ 私達)」とも解釈できるため正しい翻訳であると判断した. 光れに対して, Transformer の出力は全く意味の異なる疑問文である。
表 12 両方良い例
\\
表 12 では,どちらも正しく翻訳できている.「as soon as 〜」の節の位置が異なるがどちらも文法は正しい.表 13 両方悪い例
\\
表 13 では , Transformer の出力は「〜でのデモ」がとても小さくなるという反対の意味になっている. それに対し,RNN の出力は前回のデモより大きくなるという意味になっている.また,RNN の出力は 「protest」が連続して出現し文法か誤っている.これらの理由から同じ程度の翻訳間違いだと評価した。
表 14 評価が分かれた例
\\
表 14 は評価者によって評価が分かれた例である. Transformer の出力は「つきまとう」を「visit(訪れる)」,「売る」を「do away with(処理する,廃棄する)」と翻訳している.似た状況を表す言葉ではあるが,誤つた翻訳になっている。光れに対して, RNN の出力は「売る」を「buy(買う)」と翻訳しており,反対の意味になっている. 判断が分かれた理由は,RNN の出力において反対の意味の部分がとても近いと判断した評価者と全く異なると判断した評価者がいた事である。
## 5 考察
## 5.1 実験結果の考察
Transformer はアテンション機構により単語の依存関係を学習できる。光こで,複杂倠な文の翻訳において単語同士の関係か理解しやすい単文を学習することが翻訳精度向上に重要であると仮定した。
表 6,7より,自動評価では transformer は RNN に比へ対訳単文の量の増加による精度の向上がかなり大きいことが分かった.しかし,表 9 の人手評価では同程度か RNN の方が少し良い結果となった。
以上より,Transformer は対訳単文の学習により単語同士の依存関係を学習し句のレベルで正しく翻訳
しやすくなり自動評価の数値は向上する.しかし,表 11 からもわかるように「you know」や「we insist that the automobile industry」といった句単位で翻訳ができても,文全体の文構造が間違っていれば正しい翻訳ができなくなる.つまり,単語同士の依存関係を学習し句単位の翻訳が強化されたことによって複雑な文構造の翻訳は精度が低下したと考えられる。
## 5.2 単語単位の翻訳による誤訳
本研究では, 句単位の翻訳が強化されたことが複雑な文構造の翻訳に悪影響を及ぼしたと考察した。翻訳タスクにおいて, 単語単位の翻訳により文全体では誤訳する問題が指摘されてきた。例えば,「彼は冗談が過ぎた .」の正しい翻訳は「His joke went too far.」である.觉れに対して,単語単位で翻訳すると 「He passed joke.」となり,元の文とは異なる意味になってしまう .
本研究の結果より, Transformer は単語単位の翻訳による誤訳に近い問題が発生しやすくなると考えられる。
## 5.3 単文翻訳
本研究では, 重文・複文の翻訳精度を調査する実験を行った. 光こで, 実験の結果が文構造の複雑さに影響されているのか調べるために,単文の翻訳実験も実施した。
この実験では表 2 の対訳単文コーパスのテスト文 9,243 文を 3 章と同じモデルで翻訳した . 表 15,16 に自動評価の結果を示す.また, 重文・複文と同樣に学習データが重文・複文 92,427 文 + 単文 163,188 文の RNN と Transformer の結果の人手評価を表 17 に示す. kappa 值は 0.50 であった .
表 16 RNN モデルで単文翻訳の自動評価
表 15,16 より,自動評価指標では複文と同様に Transformer は RNN よりも単文を学習するほど精度の向上が大きい,光して,学習データが重文・複文 92,427 文 + 単文 163,188 文の数值は Transformer の方が高い.さらに,人手評価では重文・複文テスト文の結果と同様に Transformer が RNN と比べて精度が低いことがわかる. 光のため, 単純な文構造であっても一部が正しく全体が間違った翻訳が出力されてしまうことがわかる .
## 5.4 低資源の学習による影響
Google 翻訳や DeepL などの一般的に使用される機械翻訳ツールは大規模なコーパスで学習される。 しかし,本実験は約 9 万文対,約 16 万文対と比較的小規模なコーパスを使用した. 表 6,7 からわかるように,RNN とは異なり Transformer は対訳単文を 8 万文対から 16 万文対に増加させたときでも自動評価指標の値に増加傾向が見られる. 光のため,大規模なコーパスで学習していないことでTransformer のモデルの性質を検証しきれなかった可能性が考えられる。
## 6 おわりに
本論文では,Transformerに着目して実験を行った . 複文の翻訳は複雑な文構造を翻訳することが重要である.光のため,アテンション機構により単語の依存関係を適切に捉えることが翻訳精度向上に繋がる.本研究では構造が単純な単文は単語の依存関係を理解しやすいため, Transformer の学習コーパスに含まれる対訳単文が複文の翻訳精度に大きく貢献すると仮説を立てた。
実験の結果,自動評価指標では RNN よりも精度が向上することが分かった.しかし, 人手評価では期待する成果が得られなかった.理由としては,アテンション機構によって句レベルの翻訳精度が向上したことで句レべルの翻訳が優先され,文全体の構造が誤ることが原因であると推測される。
## 謝辞
人手評価に参加した以下の学生に感謝します.名村太一, 松本武尊, 柳原弘哉, 駿河樹
## 参考文献
[1] Tianyang Lin, Yuxin Wang, Xiangyang Liu, and Xipeng Qiu. A survey of transformers, 2021.
[2] Nal Kalchbrenner and Phil Blunsom. Recurrent continuous translation models. In David Yarowsky, Timothy Baldwin, Anna Korhonen, Karen Livescu, and Steven Bethard, editors, Proceedings of the $\mathbf{2 0 1 3}$ Conference on Empirical Methods in Natural Language Processing, pp. 1700-1709, Seattle, Washington, USA, October 2013. Association for Computational Linguistics.
[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, , 2017.
[4] Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
[5] 村上仁一. 日英対訳データベースの作成のための 1 考察. 言語処理学会第 17 回年次大会発表論文集, D4-5, pp. 979-82, 2011.
[6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
[7] Satanjeev Banerjee and Alon Lavie. Meteor: An automatic metric for mt evaluation with improved correlation with human judgments. In Proceedings of the acl workshop on intrinsic and extrinsic evaluation measures for machine translation and/or summarization, pp. 6572,2005 .
[8] Matthew Snover, Bonnie Dorr, Richard Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. In Proceedings of the 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, pp. 223-231, 2006.
[9] 平尾努, 磯崎秀樹, Kevin Duh, 須藤克仁, 塚田元, 永田昌明. Ribes: 順位相関に基づく翻訳の自動評価法. 言語処理学会第 17 年次大会発表論文集, pp. 1111-1114, 2011. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B1-5.pdf | # 多言語モデルを用いた日英対訳文集合 のフィルタリング手法の分析
酒井大樹 1 宇津呂武仁 1 永田昌明 2
1 筑波大学大学院 システム情報工学研究群 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所
s2220746_@u.tsukuba.ac.jp utsuro_@iit.tsukuba.ac.jp masaaki.nagata_@ntt.com
## 概要
本論文では,ウェブクロールコーパスである JParaCrawl-v3 に含まれる不適切な文対を,多言語モデルによるスコアを用いてフィルタリングすることを目指した。事前に異なる文の断片を含む文対応誤りデータを擬似的に作成し,その誤りの検出する様子を 4 つの言語モデルの間で調査した. その結果, Bicleaner-AI と marian-scorer の方が LEALLA, GPT-2 よりも正しく誤りを検出する度合いが大きかった。 その後,各モデルを用いて JParaCrawl-v3 のフィルタリングを実行した結果,Bicleaner-AI と marian-scorer は,フィルタリングにおいても英日方向に有意差を出すことがわかった.
## 1 はじめに
ニューラルモデルによる機械翻訳において,モデルの訓練に使用されるデータの品質はモデルが出力する翻訳文の品質に大きな影響を与える. しかしながら,訓練に使用する対訳文集合はウェブクロー ルによって収集された対訳文集合を使用する場合が多く,これは自動収集という性質上,ノイズとなるデータを一定割合含むために,事前に処理を行うことでその品質を向上させることが必要である. この問題を解決することを目的として,WMT2018 から WMT2020 までの Parallel Corpus Filtering Task, WMT2023 の Parallel Data Curation Task が開催されるなど,対訳文集合の品質保証は課題となっている.対訳文集合のフィルタリングにおいて,最も用いられるスコア付け手法の一つは,多言語文埋め込みモデル LASER [1] であり,これは,WMT2020, 2023 のベースラインとしても使用されている.
本論文では, WAT2022で実施された Parallel Corpus Filtering Task ${ }^{1)}$ の条件に沿って,日英間で最大規模
の対訳文集合である JParaCrawl-v3 をフィルタリングすることを目指す。これは多様なドメインデータを含む対訳文集合であるので,ドメイン非依存のモデルを用いて JParaCrawl-v3 をフィルタリングすることを最終目的とする。まず文対応に関する擬似的な誤りデータを作成し,それに対する反応の様子から Bicleaner-AI, marian-scorer, LEALLA, GPT-2 スコアの性能を評価した。その結果,Bicleaner-AI, marian-scorer の 2 手法が正しく誤りを検出する度合いが大きかった. その後,前処理を行った JParaCrawl-v3 の各文に 4 種スコアを与え,それに基づくフィルタリングを行い,フィルタリング後対訳文集合を獲得した。これを用いて評価用機械翻訳モデルを訓練し,テストデータに対する BLEU 值をもとにフィルタリング手法を評価すると,日英方向において Bicleaner-AI と marian-scorer は有意差を示した. 4 種スコアを組み合わせた合成スコアに関しても,類似した傾向を示した。
## 2 JParaCrawl-v3: ウェブから収集 された日英対訳文対集合
Morishita ら [2] は,CommonCrawl を分析して収集した対訳 Web サイト候補と,クラウドソーシングを使って収集した対訳 Web サイト候補から JParaCrawl-v3 を構築した. この文集合は次の 3 段階に分けて構築され,対訳文集合として公開されている.
1. CommonCrawl 内のデータのうち, $\mathrm{CLD}^{2)}$ を用いて日本語,英語が同程度含まれるドメインを特定し,対訳文抽出の候補サイトとする。
2. HTTrack ${ }^{3)}$ を用いてさらにウェブサイトを収集し,候補サイトに追加した。
3. Bitextor toolkit ${ }^{4)}$ を用いて,対訳文対を抽出する.
本論文では,上記の方法で構成された,2,500 万文からなる JParaCrawl-v3 に対し, 複数の前処理を施し 1,600 万文まで削減した JParaCrawl-v3 を用いる.前処理の詳細は付録に記載する。
## 3 言語モデルを用いたスコア付け
## 3.1 Bicleaner-Al
Bicleaner-AI ${ }^{5)}$ は公開されている日英翻訳モデルであり,原言語文 $x$ から目的言語文 $y$ に翻訳される確率を与えるモデルである。この確率をもとに日英文対にスコアを与える。
## 3.2 marian-scorer
本論文では Marian [3] を用いてニューラル翻訳モデル 6)を構築し, JParaCrawl-v3 のデータを用いてモデルの訓練を行った. 訓練データとして JParaCrawl-v3 より無作為に抽出した日英 100 万文対を利用する. Junczys-Dowmunt [4] の方法に従い,日英と英日の双方向で Transformer ベースの翻訳モデルを訓練し,このモデルを用いて文対のスコア付けを行った。具体的には,言語対 $(x, y)$ があるとき,次の式により dual conditional cross-entropy を計算する。
$
\left|H_{A}(y \mid x)-H_{B}(x \mid y)\right|+\frac{1}{2}\left(H_{A}(y \mid x)+H_{B}(x \mid y)\right)
$
ただし, $A , B$ はそれぞれ日英とその逆方向の翻訳モデルであることを示している. $H_{M}(\cdot \mid \cdot)$ はモデル $\mathrm{M}$ に関する確率分布 $P_{M}(\cdot \mid \cdot)$ による正規化済みの単語の conditional cross-entropy であり,次の式のように表される, $x, y$ が逆の場合も同様である.
$
\begin{aligned}
H_{M}(y \mid x) & =-\frac{1}{|y|} \log P_{M}(y \mid x) \\
& =-\frac{1}{|y|} \sum_{t=1}^{|y|} \log P_{M}\left(y_{t} \mid y_{<t}, x\right)
\end{aligned}
$
このスコアは, cross-entropy の絶対値の差を調べる部分 $\left|H_{A}(y \mid x)-H_{B}(x \mid y)\right|$ と, 低い cross-entropy に対するペナルティ部分 $\frac{1}{2}\left(H_{A}(y \mid x)+H_{B}(x \mid y)\right)$ の 2 つからなる. さらに以下の式変形を施してスコア $\operatorname{adq}(x, y)$ を得る.これにより值域が $[0,1]$ に収まる。
$
\begin{array}{r}
\operatorname{adq}(x, y)=\exp \left(-\left(\left|H_{A}(y \mid x)-H_{B}(x \mid y)\right|\right.\right. \\
\left.\left.+\frac{1}{2}\left(H_{A}(y \mid x)+H_{B}(x \mid y)\right)\right)\right)
\end{array}
$
## 3.3 LEALLA
本論文では,最大 2,000 万文対に対してスコア付けを行うにあたり,より短時間で実験を行うために多言語文埋め込みモデル LaBSE [1] の軽量実装版である setu4993/LEALLA-large 7)を用いて文埋め込みベクトルを取得した。このベクトルを $L 2$ 正規化して余弦類似度を計算し、対訳スコアとする。
## 3.4 GPT-2
GPT-2 による文スコアとして,言語モデルから得られる Perplexityを用いた. 日本語モデルとしては rinna/japanese-gpt-1b ${ }^{8)}$ ,英語モデルとして gpt2-large 9)を用いた.
## 3.5 合成スコア
原言語文 $x$ ,目的言語文 $y$ がある時, 3.1 節, 3.2 節, 3.3 節, 3.4 節のモデルを通して得られるスコアの和を用いる. すなわち,モデル $x$ のスコアを score (x),モデル y のスコアをscore(y) としたとき, その合成スコアを $S=\operatorname{score}(x)+\operatorname{score}(y)$ と計算し、 $S$ をもとにフィルタリングする.ただし, GPT-2 のスコアは値域が異なるため,標準化を行い,平均値 0 ,分散 1 としてある.
## 4 誤訳を混入した擬似データに対す る言語モデルの特性の分析
本節では,誤訳のうち文の対応が誤っている例を想定して擬似的に誤訳データを作成する方法を示し,それらに対する各言語モデルの反応を分析する. 正しい対訳では文 $x_{1}$, 文 $x_{2}$ が翻訳として対応していることが期待されるが,自動的に対訳データを収集する際, $x_{1} , x_{2}$ のいずれかの前方または後方に無関係な文の一部が混入してしまうことがある. この誤りを本論文では文対応誤りと呼び,これを持つ擬似データを作成する。
## 4.1 擬似データ作成手順
翻訳として対応する言語 $A$, 言語 $B$ の文対 $x=\left(x_{A}\right.$ ,$\left.x_{B}\right), y=\left(y_{A}, y_{B}\right)$ を定義する。続いて,文 $y_{A}$ ,文 $y_{B}$ から誤り混入用断片 yhead $_{A}$, ytail $_{A}$, yhead $\mathrm{ytail}_{B}$ を作成する. この時,誤り混入用断片は全て
7) https://huggingface.co/setu4993/LEALLA-large
8) https://huggingface.co/rinna/japanese-gpt-1b
9) https://huggingface.co/gpt2-large
(a) 言語モデルのスコア (marian-scorer) 差・Perplexity のスコア (GPT-2) 差の分布
(b) 言語モデルのスコア (Bicleaner-AI,LEALLA) 差の分布
図 1 言語モデルのスコア (GPT2 以外) 差・Perplexity のスコア (GPT-2) 差の分布
表 1 各言語モデルによるフィルタリング性能の比較 (すべて前処理適用済みの 1,600万文に対するフィルタリング. *は,無作為抽出 100 万文で訓練したべースライン翻訳モデルとの間で BLEU 値の有意差 $(p<0.05)$ があることを示す. )
文字長 10 で固定されていて,文 $y_{A}$, 文 $y_{B}$ の文頭および末尾から切り取ったものである. この時, 文対応誤りを含む擬似データの作成手順は以下である.
1. 文 $x_{A}$ の文頭に tail $_{A}$ を付加し文 $x_{-}$headerror ${ }_{A}$ を作成. 同様に文 $x_{B}$ の文頭に tail $_{B}$ を付加し
2. 文 $x_{A}$ の末尾に yhead $_{A}$ を付加し文 x_tailerror ${ }_{A}$ を作成,同様に文 $x_{B}$ の末尾に yhead $_{B}$ を付加し文 $x_{\text {_tailerror }}^{B}$ を作成する.
以上より,誤りを含む文対
$
\begin{gathered}
x_{-} \text {headerror }=\left(x_{-} \text {headerror }{ }_{A}, x_{-} \text {headerror }{ }_{B}\right) \\
x_{\_} \text {tailerror }=\left(x_{\_} \text {tailerror }{ }_{A}, x_{-} \text {tailerror }{ }_{B}\right)
\end{gathered}
$
の 2 例を作成した。本論文では,JParaCrawl-v3 から無作為抽出し人手で適切と判定した文対を使用する. $x$ を 100 文対,yを 100 文対用意し,合計 20,000 文対の擬似データを作成した。
## 4.2 言語モデルの適用手順および分析結果
3 節で示した 4 つの言語モデルが, 4.1 節で作成された擬似データに対し与えるスコアを調べた。誤りを作成する元となった文対 $x=\left(x_{A}, x_{B}\right)$ に対し,擬似データは 200 文対作成される。この 200 文対のスコアが文対 $x$ のスコアに対しどれほど変化したのかを調べ,結果を図 1 に記載した。
これによると Bicleaner-AI, marian-scorer は,元の文のスコアが高い場合の文対応誤りに対して反応し,スコアが下落している様子が見られる。一方で,GPT-2 では,元の文の Perplexity が高い場合に文対応誤りに対して反応し, Perplexity が上昇している様子が見られる.また,GPT-2 の日本語,英語を比較すると,全体的に英語の方が Perplexity の上昇幅が大きく,英語の方が日本語より誤りへの反応がやや鋭いと言える. LEALLA はいずれの傾向も強く現れることがなかった. スコアが低い文対は元々
フィルタリングによる除去対象であるため,スコアが高い場合に対して反応が見られる Bicleaner-AI, marian-scorer の 2 手法は, 文対応誤りの観点から適切なフィルタリングができていると言える.
## 5 フィルタリング評価
## 5.1 評価方法
JParaCrawl-v3 の各文に各言語モデルのスコア付けを行い,上位 100 万文を取り出すことでフィルタリング済み対訳文集合を獲得する。このフィルタリングの評価のために,同集合を用いて評価用翻訳モデルを訓練し,テストデータに対する BLEU 値で評価する。また,ベースライン翻訳モデルとして,無作為抽出した 100 万文で訓練した翻訳モデルによる機械翻訳文との間で翻訳精度の有意差検定を行なった。この検定においては mteval ツール 10)を用いブートストラップ法によって行った.
評価のため, Fairseq ライブラリを用いて Transformer ベースのニューラル機械翻訳モデルを作成した. パラメータはWAT2022に従うが,訓練時間の都合上,一部調整している. 詳細は付録に記載する.フィルタリング済みの 100 万対訳文対を用いてこのモデルの訓練を行い, ASPEC [5] テストデータ, WMT22 テストデータを対象として,BLEU 值を算出して日英・英日翻訳の翻訳精度の評価を行った.
## 5.2 評価結果
表 1 より,全体としてフィルタリングにより有意差が現れるのが英日方向の場合に限定されているのは, JParaCrawl-v3 に元々含まれる日本語文の品質が低く,無作為抽出した文集合を用いて訓練した翻訳モデルが生成する日本語文の品質が低いためだと考えられる. WMT-2023 の official results における SKIM チームの日英翻訳 (2 位) と英日翻訳 (5 位)の順位の差も JParaCrawl-v3 から作成した翻訳モデルは日本語を生成する能力が低いことを示唆している [6]. 従って, 英日翻訳では, 本論文で有意差があると示された Bicleaner-AI や marian-scorer を用いて JParaCrawl-v3をフィルタリングすることによって,翻訳精度が改善する可能性がある。
また,英日方向で単独でも有意差が現れるのは Bicleaner-AI, marian-scorer であった. 合成スコアに関しては,有意差が現れる場合と現れない場合があ
り,明確な結論を述べることができない. 今後 4 種類のスコアの内の 2 種類の組み合わせ全 6 通りの内,残りの Bicleaner-AI と marian-scorer, Bicleaner-AI と LEALLA, LEALLA と GPT-2, marian-scorer と GPT-2 の組を実験する必要がある.
## 6 関連研究
Bane ら [7] は, Wikipedia から収集した CCMatrix データセットを対象として,対訳文のエラーを 10 種類に分類することで各種フィルタリングモデルによるフィルタリング効果を調査した. この調査では, marian-scorer[3] ツールを用いた Dual conditional cross-entropy[4] による手法が最も優れていると指摘されている。一方で,この手法は訳抜けの誤訳に対応することができず,そのような誤訳を許容してしまうフィルタリングをするとも指摘されている.同時に, 多言語モデルによるフィルタリングでは訳抜けが防がれているという指摘もなされた. 本論文では,これらフィルタリングモデルを組み合わせることの有意性を示しており,日英言語対において各手法の欠点を相補できたといえる。
また,WAT2022 の Parallel Corpus Filtering Task では, Feature Decay Algorithm が日英間でべスト [8] であったが,本論文ではドメイン非依存手法を用いる目的があり, 同論文の手法は比較しなかった.
## 7 おわりに
本論文では JParaCrawl-v3 に対して,翻訳モデル,言語モデルを用いることで品質の悪い文対をフィルタリングすることを提案した。擬似誤り分析によって良い傾向が発見された手法は, 後のフィルタリングでも,無作為抽出した場合と比べて BLEU 值による評価で有意差が観測された.また,擬似誤り分析で良い傾向であった手法同士の合成スコアによるフィルタリングでも有意差が観測された. 今後は,擬似誤りデータによる分析範囲を数値誤り,固有名詞誤りなどに拡大して,フィルタリング結果との相関を調べていくことになると思われる.
10) https://github.com/odashi/mteval
## 参考文献
[1] F. Feng, Y. Yang, D. Cer, N. Arivazhagan, and W. Wang. Language-agnostic BERT sentence embedding. In Proc. 60th ACL, pp. 878-891, 2022.
[2] M. Morishita, J. Suzuki, and M. Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proc. 12th LREC, pp. 3603-3609, 2020.
[3] M. Junczys-Dowmunt, R. Grundkiewicz, T. Dwojak, H. Hoang, K. Heafield, T. Neckermann, F. Seide, U. Germann, A. F. Aji, N. Bogoychev, A. F. T. Martins, and A. Birch. Marian: Fast neural machine translation in C++. In Proc. 56th ACL, System Demonstrations, pp. 116121, 2018.
[4] M. Junczys-Dowmunt. Dual conditional cross-entropy filtering of noisy parallel corpora. In Proc. 3rd WMT, pp. 888-895, 2018
[5] T. Nakazawa, M. Yaguchi, K. Uchimoto, M. Utiyama, E. Sumita, S. Kurohashi, and H. Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proc. 10th LREC, pp. 2204-2208, 2016.
[6] Tom Kocmi, Eleftherios Avramidis, Rachel Bawden, Ondřej Bojar, Anton Dvorkovich, Christian Federmann, Mark Fishel, Markus Freitag, Thamme Gowda, Roman Grundkiewicz, Barry Haddow, Philipp Koehn, Benjamin Marie, Christof Monz, Makoto Morishita, Kenton Murray, Makoto Nagata, Toshiaki Nakazawa, Martin Popel, Maja Popović, and Mariya Shmatova. Findings of the 2023 conference on machine translation (WMT23): LLMs are here but not quite there yet. In Philipp Koehn, Barry Haddow, Tom Kocmi, and Christof Monz, editors, Proceedings of the Eighth Conference on Machine Translation, pp. 1-42, Singapore, December 2023. Association for Computational Linguistics.
[7] F. Bane, C. S. Uguet, W. Stribiżew, and A. Zaretskaya. A comparison of data filtering methods for neural machine translation. In Proc. 15th AMTA (Vol. 2: Users and Providers Track and Government Track), pp. 313-325, 2022.
[8] A. Poncelas, J. Effendi, O. Htun, S. Yadav, D. Wang, and S. Jain. Rakuten's participation in WAT 2022: Parallel dataset filtering by leveraging vocabulary heterogeneity. In Proc. 9th WAT, pp. 68-72, Gyeongju, Republic of Korea, 2022.
## A 前処理
本付録では,JParaCrawl-v3 に対し,取り除く理由が明らかな文対をフィルタリングする方法について述べる. JParaCrawl-v3を母集団 $A$ とした時, 文対 $n(n \in A)$ は全て日本語文 $j a$, 英語文 $e n$ の日英文対からなり,次のように表現される。
$
n \in A, n=(e n, j a)
$
## A. 1 言語 ID
言語 ID とは,fasttext ${ }^{11)}$ の言語判定モデル ${ }^{12)} を$ 用いて推定される文の言語の種類によるフィルタリングを言う. JParaCrawl-v3 は英語文, 日本語文の順序で配置されているので,この構造を利用して英日それぞれの言語 IDが合っていない文対を取り除く.
## A. 2 トークン数の上限
語彙サイズを 32,000,JParaCrawl-v3 全体を学習データとして訓練を行った sentencepiece ${ }^{13)}$ により,日本語文、英語文のトークン分割を行う。この時、集合 $A$ の各要素 $n$ に対し,各文を sentencepiece でトークン分割した時, en,jaいずれかに含まれるトークン数が 150 以上である文対を取り除く。
## A. 3 数字の不一致
ある文対 $n=(e n, j a)$ それぞれからアラビア数字を抽出し,ソートしたものを比較し,それが一致する文対のみを採用する。一致条件として, Python プログラム上で同じ数字として扱われることで判定をする。
## A. 4 重複文対
集合 $A$ の各要素 $n$ に対し, $n_{1}=\left(e n_{1}, j a_{1}\right), n_{2}=\left(e n_{2}\right.$ ,$\left.j a_{2}\right)\left(n_{1}, n_{2} \in A\right)$ なる文対を 2 組取り出した時, $j a_{1}=j a_{2}$ となるような文対であれば $n_{2}$ を取り除く.
## B 擬似データの具体例
誤りを含まないべース文対として,
The cones are covered with
英語
thyroid flakesthat
hide plant seeds.
日本語コーンは植物の種を隠す甲状腺フレークで覆われています。
がある時,誤り断片を追加した文対応誤り文は以下が作成される. まずベース文対の前方に誤りが付加された x_headerror ${ }_{B}$ の例として,
apid pace. The cones are
英語 covered with thyroid flakes that hide plant seeds.高を増加させました。コーンは
日本語植物の種を隠す甲状腺フレークで覆われています。
次に,ベース文対の後方に誤りが付加された $x^{\text {_tailerror }}{ }_{B}$ の例として,
The cones are covered with
英語 thyroid flakes that hide plant seeds. Foreign re コーンは植物の種を隠す
日本語甲状腺フレークで覆われています。その上で、速いペースこの様に作成され,1つのベース文対から 2 種類の文対応誤りを含む日英文対を作成される.
## C 評価用モデルのパラメータ
基本的には WAT2022 の設定 ${ }^{14)}$ に従うが,warm-up updates,max-update を変更している
14) https://github.com/MorinoseiMorizo/ wat2022-filtering/blob/main/train_model_big_enja.sh | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-1.pdf | # ただ一つのプロンプトによるタスク指向型対話システムの実現
鈴木順大 石垣龍馬 宿里晃太郎 藤本拓真 河窪大介 酒造正樹 前田英作
東京電機大学
\{20aj078@ms, 20aj012@ms, 20aj076@ms, 20aj112@ms, 22amj10@ms,
shuzo@mail, maeda.e@mail \}.dendai.ac.jp
## 概要
タスク指向型対話システムは,システム運用者,利用者の双方に共有された明確な対話目的が存在するため,対話シナリオを具体的に設計した上で,システムを構築することが一般的である. したがって,シナリオの各フェーズ毎に大規模言語モデル(LLM)を発話生成に利用する場合であっても, フェーズ間の対話遷移にはルールベースの制御を用いることによってシステム構築をすることが多い. しかしながら,そうしたシステムは,対話フローそのものがルールによって拘束され,ルールで想定されたフローから逸脱するような発話に柔軟に対応することができない,そこで,本研究では,LLMを利用したタスク指向型対話システムをただ一つのプロンプトによって構築することを提案する. 旅行代理店対話を事例とし,提案手法を用いて構築した対話システムが,対話破綻を起こすことなくタスク指向型対話が実現可能であることを明らかにした.
## 1 はじめに
昨今,GPT-4 [1]を始めとした大規模言語モデル (LLM)は,文章生成と論理推論において高い能力を示している.LLMによって柔軟で自然な対話が可能になりつつあるが,その一方で,明示的な対話制御が難しいという問題がある.そのため,システ么運用者,利用者の双方に共有された,明確な対話目的が存在するタスク指向型対話では,対話シナリオを具体的に設計した上で,システムを構築することが一般的であり,ルールベースと LLM による生成ベースを併用した対話システムを構築することが多い $[2,3]$. すなわち,システム発話には LLM の生成を用いているが,対話遷移にはルールベースの制御を用いているのである. しかしながら,このとき,ルールで定義されたフェーズを逸脱するような発話がユーザーからなされた場合に,対話全体の流
れに復帰することが難しいという問題が発生する。 そこで,我々は,LLMを用いることで,人間同士の対話において人間が行っているように,より俯瞰的な視点での対話制御を実現することはできないかと考えた. 本稿では,システム側の発話生成と対話フロー制御をただ一つのプロンプト(Dialogue Flow Prompt(DFP)と呼ぶこととする)によって制御された LLM で実現する方法を提案する。
実装上の具体例として,アンドロイドロボットを用いた対話ロボットコンペティション 2023 (DRC2023)[4] で設定されたタスクで検証した.これは,旅行代理店に訪れたお客さんと対話しながら,京都市内の 2 つの観光地を巡る旅行プランを設計し,提案するというものである。自己紹介やヒアリングなど雑談的要素も取り入れつつ,お客様が納得するような旅行プランを提案するという目的を達成することが求められる. この旅行代理店タスクを題材として,プロンプトを実装し,その結果,対話破綻を起こすことなく所望の対話を実現できた。
## 2 関連研究
DRC2023において, 吉川らはフェーズ間の対話遷移を LLM で制御する対話システム [5] を構築した。 この対話システムでは,フェーズ毎にプロンプトが用意されていた。これは,入力文の長さを短くし,指示を単純化することができるため,LLM の出力を安定させる効果が期待される。一方で,LLM がフェーズの遷移を判断し,その判断を受けて,プロンプトを入れ替える制御が必要になるため,システムが複雑になる。また,フェーズをどう遷移するかという順番は固定されてしまい,柔軟さに欠ける。本稿で提案するプロンプトはただ一つであることにより,これの解決を図った。
DRC2023 の他にも,対話システムライブコンペティション (ライブコンペ) [6] という,聴衆の前で対話システムを動作させ,評価を行うコンペティ
ションが存在し,ライブコンペ 2023 [7] でも LLM を用いた対話システムが提案された。
例えば,中野ら [8]では,プロンプトによって,予め定義したスロットを埋めていきながら対話を進めていくスロットフィリング $[9,10]$ を用いて,対話システムを構築している。本稿では,スロットフィリングといったプロンプト外の操作によって対話を進めていくのではなく,プロンプトだけで対話フロー を制御している。
## 3 Dialogue Flow Prompt (DFP)
本研究では, LLM として ChatGPT (2023 年 12 月時点)を用いた対話フロープロンプト(DFP: Dialogue Flow Prompt)を提案する. DFP は,以降に述べるプロンプトの設計手法を元に構築したプロンプトである.設計手法は,以下のように,大きく分けて,命令書,条件,タスク,【具体的なフェー ズ名】に関する条件,返答の条件,あなたのプロフィール,の6つで構成される。なお,用いている ChatGPT は,サービス側で対話履歴を管理しているため,この設計手法では,対話履歴に言及していないことに憂慮したい。
\#命令書
使用する言語設定
プロフィール設定
状況設定
魔法の言葉
\#条件
タスク指向型対話におけるタスクの指示
対話内容の条件
対話の進め方を指示
\#タスク
フェーズ設定
#【フェーズ名】に関する条件
【フェーズ名】を実施する際に含めてはいけない情報
【フェーズ名】を実施している中での例外処理
【フェーズ名】を達成することが出来なかった際の処理
\#返答の条件
好ましい話し方の指示
好ましい話し方の具体例の提示
具体的な禁止ワードの設定と理由
#あなたのプロフィール
具体的なプロフィール設定
## 3.1DFP 設計手法の詳細
「\# 命令書」は,使用する言語設定,プロフィール設定,状況設定,魔法の言葉,の4つで構成される. LLM は,時折,日本語ではなく英語や韓国語といった外国語を生成することがあるため,「使用する言語設定」では,LLM が生成すべき言語を指定する.「プロフィール設定」では,対話システムが演じてほしいキャラクタを,「状況設定」では,対話システムが対話を行う場面を指定する。「魔法の言葉」では,Cheng Li ら [11]が述べているように,「自分を信じて,限界を超えてください」といったLLM のパフォーマンスを向上させるような言葉を記述する.
「\#条件」は,タスク指向型対話におけるタスクの指示,対話内容の条件,対話の進め方を指示,の 3 つで構成される。「タスク指向型対話におけるタスクの指示」では,対話を通して最終的に達成したいタスクの内容を指定する。「対話内容の条件」では, システムがどのような立場で考え方で対話を行えばよいかを指定する。「対話の進め方を指示」では,「\#タスク」に記述しているフェーズをどのように遷移するかを指定する。
「\#タスク」は,フェーズ設定で構成される.「フェーズ設定」では,タスクを達成するために対話を,フェーズという形で切り分け,フェーズの説明とフェーズを遷移する方法を指定する。さらに, フェーズ内である程度設計者の意図を反映させるための発話例や,ルールベースのような安定性を実現するために固定したい言葉を指定してもよい。
「\#【フェーズ名】に関する条件」は,【フェーズ名】を実施する際に含めてはいけない情報,【フェー ズ名】を実施している中での例外処理,【フェーズ名】を達成することが出来なかった際の処理,の 3 つで構成される。【フェーズ名】には,「\#タスク」 で指定したフェーズの説明に含まれる任意のキー ワードを埋め込む。「【フェーズ名】を実施する際に含めてはいけない情報」では,特定のデータベースから情報を取得して利用しなければならない,という DRC のレギュレーションなどがあれば,それを指定する。「【フェーズ名】を実施している中での例外処理」では,DRCにあるようなレギュレーションを破るような出力が行われた際にどう対応するかなど,想定していなかった例外的な処理を指定する.「【フェーズ名】を達成することが出来なかった際の処理」では,フェーズで設定した対話を達成するこ
(「ただし,お客様の要望次第では順番を入れ替えたり,タスクを飛ばしても構いません」という一文なし) Sys: こんにちは! 旅行代理店の翔子です。お挌様のお話を聞くのが大好きで、今日もお客様のために最高の提案ができるように頑張ります。まずは揢様のことをもっと知りたいと思っています。お客様の趣味や最近興味を持っていることは何ですか?楽しくお話ししましょう! User: 清水寺と金閣寺を回るプランを立ててくれませんか
Sys: ありがとうございます、お客様!清水寺と金閣寺への旅行プランを立てることは、とてもワクワクしますね。それでは本題に入りましょう。お客様が京都でどのような体験をし、どんな思い出を作りたいのか、それが鍵になります。例えば、京都の伝統的な町並みを散策する、お茶や京料理を楽しむなど、一般的な観光でできる体験があります。お客様の趣味や好みに合わせて、特別な体験を取り入れることもできますよ。京都市内でどのような体験をしたいですか?
(「ただし,お客様の要望次第では順番を入れ替えたり,タスクを飛ばしても構いません」という一文あり) Sys: こんにちは、旅行代理店の翔子です。お揢様とお話しできるのを楽しみにしています。さて、お客様、最近の趣味や興味があることは何ですか?何か特に夢中になっていることがあれば教えてくださいね。
User: 清水寺と金閣寺を回るプランを立ててくれませんか
Sys: もちろんです、お客様。清水寺と金閣寺を巡るプラン、素敵な選択ですね。清水寺はその古風な雾囲気と、舞台からの絶景で有名ですし、金閣寺は金箔で覆われた美しい建築が印象的です。京都の両方の名所を訪れるのは、素晴らしい体験になることでしょう。これからそのプランについて詳しくお話ししましょう。
図 1: プロンプト一文の有無による柔軟な対応の違い
(数字によるフェーズ表現)
Sys: こんにちは、旅行代理店の翔子です。お客様とお話しできるのを楽しみにしています。さて、お客様、最近の趣味や興味があることは何ですか?何か特に夢中になっていることがあれば教えてくださいね。
User: 清水寺と金閣寺を回るプランを立ててくれませんか
Sys: もちろんです、お客様。清水寺と金閣寺を巡るプラン、素敵な選択ですね。清水寺はその古風な雰囲気と、舞台からの絶景で有名ですし、金閣寺は金箔で覆われた美しい建築が印象的です。京都の両方の名所を訪れるのは、素晴らしい体験になることでしょう。これからそのプランについて詳しくお話ししましょう。
図 2: フェーズ表現の違いによって生じる出力結果の違い
とが出来なかった際の処理を指定する.
「井返答の条件」は,好ましい話し方の指示,好ましい話し方の具体例の提示,具体的な禁止ワードの設定と理由,の3つで構成される。「好ましい話し方の指示」では,タスクに応じて望ましい話し方を指定する.「好ましい話し方の具体例の提示」では, ある程度設計者の意図を反映させるための発話例を指定する。「具体的な禁止ワードの設定と理由」では,タスクによって避けたい不適当な言葉を指定する。
「\# あなたのプロフィール」は,具体的なプロフィール設定で構成される.「具体的なプロフィー ル設定」では, 「\#命令書」に書いたプロフィール設定をより詳細に指定する。
## 3.2 DFP が持つ特徴
3.1 節で述べた設計手法をもとに,DFPを構築した (付録に記載).このプロンプトは様々な特徴を持つが,本稿では,3つの特徴を紹介する。
1 つ目は「\#条件」に「基本的に以下の『タスク』
の流れに沿って1つずつ実行してください.ただし,お客様の要望次第では順番を入れ替えたり,夕スクを飛ばしても構いません.」と記述したことである.客によっては,設計者が想定した対話フロー と異なる対話フローを望む.例えば,客は既に行きたい観光地が決まっており,観光地を決めるフェー ズを必要としないときである.そこで,プロンプトが 1 つ目の特徴を持つことで,LLM 自身が対話フローを制御することができるため,客の要望に応じて柔軟に対話フローを切り替える効果を期待した。
2つ目は「月タスク」にフェーズを記述する際,対話フローを制御するために上から順に書くだけでなく,フェーズ毎に番号を振ったことである. 1 つ目の特徴でも述べた通り,客の要望に応じて柔軟にフローを切り替えることは重要である。そこで,プロンプトが 2 つ目の特徴を持つことによって LLM がどのフェーズに遷移すればよいのかを明確し,柔軟に対話フローを切り替える効果を期待した。
3 つ目は,1つ目の特徴に挙げた一文だけでなく,「\#条件」に「タスクは勝手に進めずに客の話を待っ
(効力を発揮していない一文と似た意味を持つ一文を複数追加したとき)
Sys: こんにちは、旅行代理店の翔子です。お客様とお話しできるのを楽しみにしています。さて、お客様、最近の趣味や興味があることは何ですか?何か特に夢中になっていることがあれば教えてくださいね。
図 3: 似た意味を持つ一文を複数入れることによる出力結果の違い
てください」,「井返答の条件」に「複数のタスクをまたいだ事を一つの発話で聞かないでください。一つ一つタスクを進めていってください.」,「一度に複数の事は聞かないでください。お客様が返答に困ります」というように,似た意味の一文を複数入れたことである.プロンプトを記述する際,1つだけでは指示に従わない出力が生まれる可能性がある. そこで,プロンプトに似た意味の文を複数記述することによって,効力を強めて指示に従うような出力になることを期待した。
## 4 実験と結果
3.2 節で述べた特徴に関する比較実験とその結果を示す。下記で示していく図にあるSys はシステム発話を指し, User は客発話を指す。
1 つ目の比較実験に関する結果を図 1 に示す.「ただし,お客様の要望次第では順番を入れ替えたり, タスクを飛ばしても構いません」という一文の有無によって,客の「清水寺と金閣寺を回るプランを立ててくれませんか」という要望に対する対応に差が生まれた. 特徴がない場合は, 客発話を無視してフェーズを進行していることが分かった. 特徴がある場合は,客発話を考慮して「\#条件」に指定されているフェーズをいくつか飛ばして進行していることが分かった. この結果から,1つ目の特徵があることで,「柔軟に対話フローを切り替える」という期待通りの効果が見られた。
2 つ目の比較実験に関する結果を図 2 に示す.「\# タスク」におけるフェーズ表現の違いによって,出力に差が生まれた. 1 つ目の結果と同じように, フェーズ表現を中黒(・)によって表現した場合と数字によって表現した場合で,お客様の「清水寺と金閣寺を回るプランを立ててくれませんか」という要望に対する対応に差が生まれた。この結果から, フェーズ表現を数字にすることで,柔軟に対話フローを切り替えることに繋がった。
3 つ目の比較実験に関する結果を図 3 に示す.「\#条件」に「基本的に以下の『タスク』の流れに沿って1つずつ実行してください. ただし,お客様の要望次第では順番を入れ替えたり,タスクを飛ばしても構いません.」という一文のみ入れた場合と,似た意味の一文を複数入れた場合で, 出力結果に差が生まれた。一文のみ入れた場合は, 出力が非常に長く,複数ターンかけて行うべき対話には沿っていなかった. 服うす入れた場合は,出力がまとまっており,自然であった. 効力が発揮できていない一文がある場合には,似た意味の一文を複数入れることで,効力を強めることができた。
以上のことから,提案したDFP が有効であることが確認された。
## 5 おわりに
本稿では,LLMを利用したタスク指向型対話システムをただ一つのプロンプトによって構築することを提案した。具体的に,DRC2023 タスクを用いて DFP を構築し,その効果を検証した. その結果,対話破綻を起こすことなくタスク指向型対話が実現可能であることを明らかにした。なお,DRC2023では本プロンプトを用いたシステム [12]を実際に用いて検証した. 様々な LLM が開発,公開されている中で,今後,提案プロンプトの汎用性を確認していくつもりである.
## 謝辞
本研究は JSPS 科研費 JP19H05693 の助成を受けたものです。
## 参考文献
[1] OpenAI. GPT-4 technical report. arXiv preprint arXiv:2303.08774, 2023.
[2] Ryo Yanagimoto, Yunosuke Kubo, Miki Oshio, Mikio Nakano, Kenta Yamamoto, and Kazunori Komatani. Useradaptive tourist information dialogue system with yes/no classifier and sentiment estimator. In Proceedings of the Dialogue Robot Competition 2023, 2023.
[3] Hyejin Hong, Hibiki Kawano, Takuto Maekawa, Naoki Yoshimaru, Takamasa Iio, and Kenji Hatano. A summarized history-based dialogue system for amnesia-free prompt updates. In Proceedings of the Dialogue Robot Competition 2023, 2023.
[4] Ryuichiro Higashinaka, Takashi Minato, Hiromitsu Nishizaki, and Takayuki Nagai. In Proceedings of the Dialogue Robot Competition 2023, 2023.
[5] Katsumasa Yoshikawa, Takato Yamazaki, Masaya Ohagi, Tomoya Mizumoto, and Keiya Sato. Developing interactive tourism planning: A dialogue robot system powered by a large language model. In Proceedings of the Dialogue Robot Competition 2023, 2023.
[6] 東中竜一郎, 船越孝太郎, 稲葉通将, 角森唯子, 高橋哲朗, 赤間怜奈. 対話システムライブコンペティション. 第 84 回人工知能学会言語・音声理解と対話処理研究会, pp. 106-111, 2018.
[7] 東中竜一郎, 高橋哲朗, 稲葉通将, 斉志揚, 佐々木裕多, 船越孝太郎, 守屋彰二, 佐藤志貴, 港隆史, 境くりま, 船山智, 小室允人, 西川寛之, 牧野遼作, 菊池浩史,宇佐美まゆみ. 対話システムライブコンペティション 6. 第 99 回人工知能学会言語・音声理解と対話処理研究会, pp. 84-89, 2023.
[8] 中野雄斗, 野末慎之介, 穀田一真, 有山知希, 佐藤魁,曾根周作, 亀井遼平, 謝素春, 成田風香, 守屋彰二, 赤間怜奈, 松林優一郎, 坂口慶祐. Hagi bot: LLM を用いた対話状態追跡と人間らしい振る舞いで自然な議論を行うマルチモーダル対話システム. 第 99 回人工知能学会言語・音声理解と対話処理研究会, pp. 102-107, 2023 .
[9] Matthew Henderson, Blaise Thomson, and Jason D. Williams. The second dialog state tracking challenge. In Proceedings of the 15th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 263-272, 2014.
[10] Chia-Hsuan Lee, Hao Cheng, and Mari Ostendorf. Dialogue state tracking with a language model using schemadriven prompting. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 4937-4949, 2021.
[11] Cheng Li, Jindong Wang, Yixuan Zhang, Kaijie Zhu, Wenxin Hou, Jianxun Lian, Fang Luo, Qiang Yang, and Xing Xie. Large language models understand and can be enhanced by emotional stimuli. arXiv preprint
arXiv:2307.11760, 2023.
[12] 宿里晃太郎, 石垣龍馬, 鈴木順大, 永沼翔翼, 藤本拓真, 河窪大介, 酒造正樹, 前田英作. 大規模言語モデルを利用した音声対話システムのメタ制御. 言語処理学会第 30 回年次大会 (NLP2024), 2024. (発表予定).
## A 付録
対話フロープロンプト(DFP:Dialogue Flow Prompt)全文
\# 命令書
貴方は旅行代理店店員のプロフェッショナル店員です。
日本語でしゃべってください.
以下の条件に必ず従い,最高の出力をしてください,
\# 条件
今回の対話の最終的な目標は,\{CITY_NAME $\}$ 内での 2 つの観光地をめぐる旅行プランを決めることです.
お客さんと楽しくお話をしながら,\{CITY_NAME $\}$ 内での旅行プランを考えます。
残念ながら翔子は $\{$ CITY_NAME $\}$ 旅行に行くことができません,そのためお格様のために旅行プランを考えてください,
基本的に以下の「タスク」の流れ沿って1つずつ実行してください,ただし,お客様の要望次第では順番を入れ替えたり,タスクを飛ばしても構いません. タスクは勝手に進めずに,客の発話を待ってください
お客様が質問にはっきり答えるまで先に進まないでください,お客様が答えられないようだったら,共感したうえで先に進んでください,
ただし,「操作一覧」に記載された項目を実行する必要がある際には,発話せず,「操作一覧」番号のみを出力してください.
\# タスク
1. まずは,お客様のことを知りたいと言い,お客様の趣味や最近やっているを聞いてください。
お客様に興味を持っているため,旅行プランの事は一旦おいて趣味を聞きたいと思っています. 興味津々に話を聞いてください. 2 回だけ,その話題について深堀をして会話を盛り上げてください。2.お客さんの趣味を聞いてうれしかった事を伝えた後に,「それでは本題に入りましょう」と言ってください。
3.「お客様が京都でどのような体験をし,どんな思い出を作りたいのか,それが鍵になります」と言った後,\{CITY_NAME \}旅行でどのような体験をしたいのか聞いてください。一般的な京都観光でできる体験の具体例を 2 個挙げ,お客様の趣味を京都観光で生かせる体験を 1 つ挙げてください,簡潔に伝えてください.
4. これまでの話をもとに,これからオススメプランを紹介することを伝えてください.
5.これまでの話をもとに,旅行プランを 1 つ紹介してください. 旅行プランには 1 箇所目の観光地と 2 箇所目の観光地が含まれます. プラン名には,カタカ
ナと漢字を組み合わせて魅力的で分かりやすい名前を付けてください. お客さんの求めるものを反映できる聞き取りやすくて奇抜なプラン名をつけてくださ
い. 頭に残るような印象的なプラン名がいいです. 少しダサいぐらいがちょうどいいです. ex) 1 つ目は「筋肉もりもり金色の都とロマンチックプラン」で
す.これは oo を体験できるプランです. プラン名を示した後に,そのプランで訪れる 2 つの観光地を紹介してください. 観光地候補一覧に存在しない観光地をオススメするときは,追加でもう一箇所観光地を決めて,存在しないものはおまけで行くようにしたください.
6. 紹介したプランでお客様の希望を満たせているか必ず確認してください. 「変更などもできますが、このプランで訪れる観光地はこちらの 2 つでいかがでしょうか?」と言ってください。プランを変更するときには,全体のプラン確認をせずに, oo の観光地を xx に変更します. のように簡潔に説明してください. プラン全体の説明はしないでください.
7.「それでは,お客様,旅行において,食事処選びも醍醐味ですよね」と言った後に,\{CITY_NAME $\}$ 内で食べてみたい料理や好きな食べ物を聞いてください. 自分の意見を織り交ぜながら,お客様の希望を聞いてください。
8. これまでの話を参考にして,ランチ場所や店,もしくは商店街を提案してください.ただし,食事処は紹介するだけにしてください。勝手に予約を取ったり, 決めつけたりしないでください。
9. 提案した食事処がお客様の希望を満たせているか確認してください.
10. 決まった旅行プランの確認をしてください. 簡潔にプラン名と,訪れる観光地の名前を確認する.プランの回り方を午前中,お昼,午後に分けて端的に伝えてください.観光地候補一覧に存在しない観光地をオススメするときは,追加でもう一箇所観光地を決めて,存在しないものはおまけで行くようにしてください.「とても素晴らしいプランだと思います.」という感じの締めの言葉を言ってください.
\# 観光地の条件
\{CITY_NAME $\}$ 内での観光地のみをオススメしてください
それ以外の観光地を含めてはいけません.
お客様の趣味や求める体験を反映したプランにしてください.
$「 1$ 箇所目の観光地」:\{CITY_NAME $\}$ 内での観光地,必ず「観光地一覧」から選ぶ
$「 2$ 箇所目の観光地」: 1 箇所目から近くの,\{CITY_NAME $\}$ 内での観光地,必ず「観光地一覧」から選ぶ
観光地候補一覧に存在しない観光地をオススメするときは,追加でもう一箇所観光地を決めて,存在しないものはおまけで行くようにしたください.
\# 趣味を聞く条件
趣味が無ければ,お客様が最近興味のある事を聞くようにして,順で一つ一つ段階を追って聞いてください,
ただ趣味を聞くのではなく, 2 回ほど深堀をしてお客様が楽しく話せるようにしてください.
もし何も答えてくれない場合は,その事に共感して,次のタスクに移ってください.
\# 返答の条件
複数のタスクをまたいだ事を一つの発話で聞かないでください。一つ一つタスクを進めていってください.
一度に複数の事は聞かないでください。お客様が返答に困ります。
体言止めは使わないようにしてください.
話し言葉で話してください。人間らしいしゃべり方で話してください.
丁寧なしゃべり方で話してください。失礼な言葉を使わないでください.
お客様が質問に答えてから提案をしてください。
提案をする場合には「いかがでしょうか?」などの丁寧な言葉を使って相手に尋ねてください.
出力する文字列に改行や箇条書きは使わないでください. カッコも使わないでください.
タスクにある数字は出力しないでください.
話し相手のことは必ず「お客様」と呼んでください. 勝手に名前をつけてはいけません.
基本的にお客様と 1 対 1 で話します.「私たち」や「皆さん」といった複数系の言葉を使わないでください.
\# あなたのプロフィール
あなたは旅行代理店の店員です。名前は翔子です。
お客さんと話すのが大好きで,少しお茶目な女性です。頼れるお姉さんです.
今回,お客様に最高の提案ができるように沢山お客様の事を聞こうと頑張っています.
お客様に興味津々です。
\{CITY_NAME\} の歴史に詳しいですが,割とフィーリングでものを決めるタイプで,分かりやすい言葉を好みます. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-2.pdf | # 日本語日常対話コーパスへの基礎解析アノテーション
赤間怜奈 1,2 浅原 正幸 3 若狭絢 1 大村舞 3 鈴木潤 1,2
1 東北大学 2 理化学研究所 3 国立国語研究所
\{akama, aya.wakasa.c3, jun.suzuki\}@tohoku.ac.jp,
\{masayu-a, mai-om\}@ninjal.ac.jp
## 概要
規範的な日常対話を収録した言語資源「日本語日常対話コーパス」に対し,基礎解析情報のアノテーションをおこなっている。具体的には,形態素解析および構文解析を施し,形態論情報として UniDic に基づく短単位・長単位形態論情報を,構文情報として文節境界と文節係り受け情報を付与した.さらに,これらの情報を用いて,多言語間で共通化された依存構造アノテーション仕様 Universal Dependencies 準拠の言語資源を構築した. 本稿では,基礎解析アノテーションの手順ならびに進捗状況を報告するとともに,アノテーション済みデータの活用事例として,依存構造解析器を構築し既存解析器との比較によりその特性と有用性を紹介する。
## 1 はじめに
自然言語処理の研究・開発は,近年は分野として言語横断的な取り組みを推奨する動きはあるものの [1],依然として英語を対象とした議論が主導的である. 日本語を対象とした自然言語処理,たとえば,英語をはじめ他言語のうえで確立された最先端の技術や知見の日本語への適応可能性を検証すること,あるいは,日本語話者の文化や思想が反映された日本語特有の表現を満足に処理する方法論を確立することなどを議論していくためには,日本語言語資源の整備が必要不可欠である.
日本語日常対話コーパス (JDailyDialogue; JDD) は,規範的な日本語表現で構成される高品質なマルチターン日常対話コーパスである [2]. 日本語の対話コーパスは音声対話の書き起こしを収録したものが多いなか,日本語日常対話コーパスは,Business Scene Dialogue [3], JPersonaChat, JEmpatheticDialogues [4] と同様,人が創作したテキスト対話を収録したものである。これらのコーパスは,人間同士の自然対話で観察されるリアルな言語現象(フィラーや相槌の多用,発話途中の話者交代など)を含まないが,近年の対話研究のデファクトスタンダードである英語対話データ DailyDialog [5], Persona-Chat [6], EmpatheticDialogues [7] の日本語版と見做すことができ,日英言語横断的研究の土台を成している.
日本語日常対話コーパスをより標準的で利便性の高い言語資源として整備することを目的として, コーパス内の対話に対して形態論情報や統語情報などの基礎解析情報のアノテーションを進めている. さらに,これらの情報に基づき,日本語日常対話コーパスを多言語間で共通化された依存構造アノテーション仕様である Universal Dependencies (UD) [8] に準拠した言語資源として再構築している. 基礎解析情報が付与されている日本語対話コー パスには日本語話し言葉コーパス $[9,10]$ や日本語日常会話コーパス [11] があるが,これらはいずれも自然音声発話の書き起こしデータであり,日本語日常対話コーパスのような高品質テキスト対話に解析情報が付与されている言語資源は希少である. 日本語の UD 言語資源には UD Japanese-GSD など $[12,13,14]$ があるが,著作権の都合で表層形と合わせて利用可能な言語資源は限定的である. 本稿で紹介する UD Japanese-JDD は,データの包括性に加えて規模と品質の観点からも,日本語の UD 言語資源としての高い有用性が期待できる。
本稿では,日本語日常対話コーパスに対して実施している基礎解析アノテーションの内容および手順を説明し,基礎解析結果の概要を報告する。また,基礎解析結果に基づいて構築した UD Japanese-JDD の活用の一例として依存構造解析器を作成し, 既存解析器との比較によりその特性を明らかにする.
## 2 アノテーション内容と作業手順
日本語日常対話コーパスに形態論情報,文節係り受け情報を付与し, 単語依存構造に変換した (図 1).各工程の詳細と作業手順を以下で説明する。
図 1 UD Japanese-JDD の例. 短単位アノテーション. 発話は「日常生活」トピック内の対話より抜粋.
## 2.1 形態論情報の付与
形態論情報として, UniDic 品詞体系に基づく国語研短単位・国語研長単位形態論情報 [15] を付与した. まず, 国語研短単位は短単位自動解析用辞書 UniDic と形態素解析器 MeCab を, 国語研長単位は中長単位解析器 ( Comainu ${ }^{1)}$ を用いて自動解析をおこなった。専門の作業者が,形態論情報アノテーションシステム大納言 [16] を用いて自動解析結果を修正し,適切なラベルが付与されていることを確認した. 国語研長単位に基づいて,文節境界を付与した。
## 2.2 文節係り受け情報の付与
文節係り受け情報は,BCCWJ-DepPara [17] の基準に準じる. 先に係り受け解析器 $\left(a b o C h a^{2}\right.$ を用いた自動解析をおこない,その後,専門の作業者がコー パス管理システム ChaKi.NET [18] を用いて解析結果を修正した。一般に,文節係り受け解析は 1 文をひとつの単位としておこなわれる. しかし, 日本語日常対話コーパスに含まれる対話は, 1 発話がひとつの単位となっており, 1 発話には 2 つ以上の文が含まれている場合も多い. このようなデータを適切に解析するために,文節境界に加えて,句点などを手がかりに改めて文境界を付与した。
## 2.3 誤記の修正・表現の正規化
前述の作業を実施する過程で,元の対話データに含まれる誤記等が発見された.たとえば,UniDic 内の適切な形態素を割り当てられない箇所は, 誤字や一般的でない表現を含む可能性が高い. 発見された誤記等は, 日本語日常対話コーパスの開発時と同様,既定の正書法 [19] に従って作業者が修正あるいは正規化した. また,適切な文節係り受けを付与できない箇所は, 文法規則から逸脱した表現である可能性が高い. 発見された非文法的な表現は,可能な
1) http://comainu.org/
2) https://taku910.github.io/cabocha/限り文意を保存しつつ作業者が柔軟に修正した。
## 2.4 単語依存構造への変換
形態論情報および文節係り受け情報に基づいて, Universal Dependencies(UD)に準拠した単語依存構造を構築した. UDは,他言語間で共通化されたアノテーション規則のもとでツリーバンクを作成する国際プロジェクトであり,これに則して記述された資源は言語横断的な解析も容易となる. 形態論情報・文節係り受け情報に UD の変換規則 [13] を適用し, 国語研短単位(Short Unit Word; SUW)および長単位(Long Unit Word; LUW)に基づく依存構造に変換した。また,同規則により品詞体系をUniDic から UD 規定の Universal Part-of-Speech(UPOS)に変換し,さらに,UPOS に基づいて UD 規定の係り受けラベル DEPRELを割り当てた。
## 3 UD Japanese-JDD の特性
上述の手順で日本語日常対話コーパスをUDに変換した言語資源をUD Japanese-JDD と呼ぶ. 2024 年 1 月時点で UD Japanese-JDD に収録されている対話,すなわちアノテーション作業が完了している対話は 1,545 で,これは日本語日常対話コー パス全体(5,261 対話)の約 $29.4 \%$ に相当する. UD Japanese-JDD の特性を, 以下に示す既存の日本語 UD 言語資源との比較を通して述べる。
- UD Japanese-CEJC [14]: 日本語日常会話コーパス [11] のコアデータに基づく. 自然音声対話の転記で,完全でない文を多く含む.句読点が含まれない. 表層形は契約者のみ利用可.
- UD Japanese-GSD [12]: Wikipedia テキストに基づく.文単位のみ,文書レベルの単位は定義されない. 表層形はオープンライセンスで公開.
- UD Japanese-BCCWJ [13]: 現代日本語書き言葉均衡コーパス [20] に基づく.書籍・雑誌・新聞・白書・ブログなど多様な媒体の書き言葉を収録.表層形は契約者のみ利用可.
## 3.1 基礎統計
表 1 に各日本語 UD 言語資源の統計情報を示す。 すべての言語資源で単位が共通している文節数と単語数に着目すると,JDD は,現時点で既に GSD と同程度の規模である.コーパス内のすべての対話にアノテーションが完了すると,現在の約 3 倍強の規模になることが予想される. JDD の 1 文(発話)あたりの平均単語長は, 話し言葉 (CEJC) と書き言葉 (GSD,BCCWJ)の中間の大きさであった.
## 3.2 ラベル分布
品詞ラベル表 2 に各 UD 言語資源における短単位 SUW に付与された品詞ラベル UPOS の分布を示す. 対話データである JDD と CEJC は,GSD や BCCWJ と比べて複合名詞 NOUN が少ない. 同じ対話であっても,JDD は CEJC と比べて,副詞 ADV,接続詞 CCONJ, 感動詞 INTJ の値が小さい。これはJDDがフィラーや言い淀みをあまり含まないことに起因する. JDD では規範的な表現が用いられているため,対話であっても格助詞の省略が少なく,格助詞・係助詞 ADP が比較的大きい値である。また,JDD は,表 3 係り受けラベル DEPREL の分布.
助動詞 AUX の値がとくに大きい。書き言葉である GSD や BCCWJ と比較しても大きな值である。このことから,JDDでは丁寧語の「です」「ます」や複合動詞が多用される傾向にあることが見て取れる.
係り受けラベル表 3 に各 UD 言語資源における短単位 SUW に付与された係り受けラベル DEPREL の分布を示す. JDD は,品詞ラベルと同様,助動詞 aux の割合がとくに大きい. 形容詞節 $a c l$, 副詞節 $a d v c l$ の分布は,書き言葉である GSD や BCCWJ よりも話し言葉である CEJC に近い。つまり,JDDには節が少ない文(単文)が比較的多く含まれていることが示唆される。一方で,名詞主語 $n$ subj と目的語 $o b j$ の割合は,CEJC よりも明らかに多く,GSD やBCCWJに近い。このことから,JDD は主語や目
的語を省略しない表現が多く含むことがわかる。
## 4 活用事例 : 依存構造解析器
UD 言語資源の活用事例のひとつとして,依存構造解析器の構築が挙げられる。本章では, UD Japanese-JDD を用いて依存構造解析器を構築し,他の解析器との比較を通してその特性を分析する.
## 4.1 実験設定
解析器の作成既存研究 [14] に倣い, 自然言語処理ライブラリ $\mathrm{spaCy}^{3}$ )を用いて解析器を作成した. 解析モデルとして spacy-transformers を採用した。これは, Transformers ベースの事前学習モデル ${ }^{4)}$ と解析コンポーネント5)との間で損失勾配を共有しながら同時学習をおこなうモデルである. UD Japanese-JDD を訓練データ6) としてモデルを学習し, 解析器を作成した. 比較のために, UD Japanese-GSD および UD Japanese-CEJC を訓練デー タ7)とした解析器も作成した.
評価方法作成した依存構造解析器を用いて対象のテキストデータを解析し,その精度を $\mathrm{F}$ 值として算出した. 評価観点は次の 6 つとした: 単語分割精度 (Tokens), UD 品詞ラベルの予測精度 (UPOS), UniDic 形態論情報の予測精度 (XPOS), 語彙素の予測精度 (Lemmas), 依存関係の予測精度(Unlabeled Attachment Score; UAS),依存関係に加えて UD 係り受けラベルの予測精度(Labeled Attachment Score; LAS)、いずれも短単位に基づく解析. 解析対象には,JDD,CEJC,GSDのテストデータを用いた。
## 4.2 結果と考察
表 4 に,UD 言語資源を活用して作成した依存構造解析器の各設定における解析精度 (一部抜粋) を示す. ${ }^{8}$ )ここでは,UDを構成するラベル(品詞 UPOS,係り受け DEPREL)に関連する 3 つの評価観点(UPOS,UAS,LAS)から依存構造解析タスクにおける UD Japanese-JDD の特性を議論する。
訓練データとして JDDを用いて作成した解析器は,いずれのテストデータでも他の解析器を下回るあるいは同程度の解析精度であった. 特に, CEJC
表 4 UD 言語資源に基づく依存構造解析器の解析精度.
を解析したときの LAS は 62.82 と低い值であった. これは,JDD は規範的な対話であることに対し,自然発話である CEJC は不規則な係り受け関係を多く含むことが要因のひとつと考えられる。
JDD を解析対象とした場合,CEJC や GSDを対象とした場合よりも解析器の精度が高くなる傾向にあった.JDDは,その性質上,形態や統語構造の面でも規範的なものが多く例外的な現象をあまり含まないため, 多くの解析器にとって解析し易いデータであると考えられる。JDD の解析において最も高い精度を示したのは,CEJC と GSDの 2 種類を組み合わせて訓練データとして用いた解析器であった.このことから,JDDは,形態や統語構造の面で話し言葉と書き言葉の両方を併せ持つ,あるいはそれらの中間的な性質を有していることが示唆された.
## 5 おわりに
規範的な日常対話を収録した言語資源「日本語日常対話コーパス」に対して基礎解析情報のアノテー ションをおこなっている. 本稿では, アノテーションの内容と作業手順を説明し, 単語依存構造への変換までのすべての基礎解析が完了した対話データで構築した日本語 UD 言語資源「UD Japanese-JDD」 を紹介した。既存資源との比較分析により,UD Japanese-JDD は,表層形が利用可能な日本語 UD 言語資源としては現時点で既に最大級の規模であること, 形態および統語構造的な特徴として書き言葉と話し言葉双方の性質を併せ持っていること,例外的な言語現象が少ない規範的なデータで解析が容易であることを確認した. 完成した UD Japanese-JDD は主に研究用途として公開することを予定している.
## 謝辞
本研究は JSPS 科研費 JP22K17943,JST ムーンショット型研究開発事業 JPMJMS2011-35 (fundamental research), 国立国語研究所共同研究プロジェクトの支援を受けたものです。
## 参考文献
[1] Pratik Joshi, Sebastin Santy, Amar Budhiraja, Kalika Bali, and Monojit Choudhury. The state and fate of linguistic diversity and inclusion in the NLP world. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), 2020.
[2] 赤間怜奈, 磯部順子, 鈴木潤, 乾健太郎. 日本語日常対話コーパスの構築. 言語処理学会第 29 回年次大会発表論文集, pp. 108-113, 32023.
[3] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation (WAT), pp. 54-61, 2019.
[4] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. In 2022 IEEE Spoken Language Technology Workshop (SLT), pp. 685-691, 2023.
[5] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, Shuzi Niu, and Hong Kong. DailyDialog: A Manually Labelled Multi-turn Dialogue Dataset. In Proceedings of the The 8th International Joint Conference on Natural Language Processing (IJCNLP), pp. 986-995, 2017.
[6] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing Dialogue Agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), Vol. 1, pp. 2204-2213, 2018.
[7] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y. Lan Boureau. Towards Empathetic Open-domain Conversation Models: A New Benchmark and Dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 53705381, 2019.
[8] Marie-Catherine de Marneffe, Christopher D. Manning, Joakim Nivre, and Daniel Zeman. Universal Dependencies. Computational Linguistics, Vol. 47, No. 2, pp. 255-308, 2021.
[9] Kikuo Maekawa. Design, compilation, and some preliminary analyses of the corpus of spontaneous japanese. Spontaneous speech: Data and analysis, Vol. 3, pp. 87-108, 2004.
[10] Kiyotaka Uchimoto, Ryoji Hamabe, Takehiko Maruyama, Katsuya Takanashi, Tatsuya Kawahara, and Hitoshi Isahara. Dependency-structure annotation to corpus of spontaneous Japanese. In Proceedings of the Fifth Interna- tional Conference on Language Resources and Evaluation (LREC), pp. 635-638, 2006.
[11] Hanae Koiso, Haruka Amatani, Yasuharu Den, Yuriko Iseki, Yuichi Ishimoto, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, Yasuyuki Usuda, and Yuka Watanabe. Design and evaluation of the Corpus of Everyday Japanese Conversation. In Proceedings of the Thirteenth Language Resources and Evaluation Conference, pp. 5587-5594, 2022.
[12] Masayuki Asahara, Hiroshi Kanayama, Takaaki Tanaka, Yusuke Miyao, Sumire Uematsu, Shinsuke Mori, Yuji Matsumoto, Mai Omura, and Yugo Murawaki. Universal Dependencies version 2 for Japanese. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC), pp. 1824-1831, 2018.
[13] Mai Omura and Masayuki Asahara. UD-Japanese BCCWJ: Universal Dependencies annotation for the Balanced Corpus of Contemporary Written Japanese. In Proceedings of the Second Workshop on Universal Dependencies, pp. 117-125, 2018.
[14] Mai Omura, Hiroshi Matsuda, Masayuki Asahara, and Aya Wakasa. UD_Japanese-CEJC: Dependency relation annotation on corpus of everyday Japanese conversation. In Proceedings of the 24th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 324-335, 2023.
[15] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 2007.
[16] 小木曽智信, 中村壮範. 『現代日本語書き言葉均衡コーパス』形態論情報アノテーション支援システムの設計・実装・運用. 自然言語処理, Vol. 21, No. 2, pp. 301-332, 2014.
[17] Masayuki Asahara and Yuji Matsumoto. BCCWJDepPara: A syntactic annotation treebank on the 'Balanced Corpus of Contemporary Written Japanese'. In Proceedings of the 12th Workshop on Asian Language Resources, pp. 49-58, 2016.
[18] Masayuki Asahara, Yuji Matsumoto, and Toshio Morita. Demonstration of ChaKi.NET - beyond the corpus search system. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 49-53, 2016.
[19] 一般社団法人共同通信社. 記者ハンドブック第 14 版新聞用字用語集. 2022.
[20] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguti, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014.
## A UD 言語資源に基づく依存構造解析器の性能評価
表 5 に,UD 言語資源を活用して作成した依存構造解析器の各設定における解析精度を示す. 評価観点は,単語分割精度 (Tokens), UD 品詞ラベルの予測精度 (UPOS), UniDic 形態論情報の予測精度 (XPOS), 語彙素の予測精度 (Lemmas),依存関係の予測精度(UAS),依存関係に加えて UD 係り受けラベルの予測精度 (LAS)の全 6つで,いずれも $\mathrm{F}$ 值で精度を算出した. $\mathrm{spaCy}$ 用いると,解析対象が同一のデータの場合は訓練データによらず Tokens,XPOS,Lemmas がほぼ同じ結果になった. 今後, spaCy 内部で何が起きているかについて検討する。表中の太字は各観点における最良の値を示す.
表 5 UD 言語資源に基づく依存構造解析器の解析精度 (完全版).
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-3.pdf | # 大規模言語モデルを用いた対話システムの語彙レベル制御
TSENG YI KAI ${ }^{1}$ 徳永健伸 ${ }^{1}$ 横野光 ${ }^{2}$
1 東京工業大学 2 明星大学
tseng.y.ab@m.titech.ac.jp take@c.titech.ac.jp hikaru.yokono@meisei-u.ac.jp
## 概要
人間同士の対話では alignment が発生することが昔からよく知られており,我々の先行研究では Lexical Level Alignment (LLA) という発話で使われる単語の語彙レベルでの alignment を提案した. 本論文では,対話システムで LLAを実現するために, ChatGPT を発話生成のモデルとして採用し,生成される発話の語彙レベルを制御するための指定の語彙レベルに応じた発話生成用単語リストを作成する外部モジュールを提案する.
## 1 はじめに
人間同士の対話では様々な linguistic level で alignment が発生することが昔からよく知られている [Pickering and Garrod, 2006]. 我々の先行研究 [Tseng et al., 2023] では, Lexical Level Alignment (LLA) という発話で使われる単語の語彙レベルでの alignment を提案した. 子供や非母語話者と話す時に相手が理解しやすいようにより簡単な単語を使うことがあるが,これはLLA の一つの例である。
本研究ではLLAを考慮した対話システムの実現を目指している。発話生成にはプロンプトベースの大規模言語モデルである ChatGPT 1)を採用するが,予備実験 (付録 A) において,ChatGPT の生成する発話の語彙レベルをプロンプトのみで制御することは不十分であることが明らかになった.
本論文ではこの問題の解決に向けて,これまでの対話履歴を考慮した,指定した語彙レベルに応じた発話生成用単語リストを作成して発話生成を行う ChatGPT に提示する外部モジュールを提案し,指定した語彙レベルより難しい単語をできる限り使わずに発話を生成することを目指す。
## 2 関連研究
Ehara [2023] は英語学習のための文章を ChatGPT
1) https://openai.com/blog/chatgpt
を用いて生成するシステムを開発している。システムは特に単語の習得に注目し,ユーザが選択したトピックとユーザの学習状況に応じて習得する単語を選択し,生成される文章に選択された単語が含まれるように ChatGPT に指示する。
Landwehr et al. [2023] は ChatGPT に外部のモジュー ルを導入し,バーチャル $\mathrm{AI}$ キャラクターのための記憶機能を実現している.提案システムは発話履歴から記憶のデータベースを構築し,発話を生成する度にデータベースから関連する記憶を抽出して ChatGPTへのプロンプトに挿入している.
本論文の提案システムは Landwehr et al. [2023] の構成を参考にして外部モジュールを導入して外部データベースとして分類語彙表 [National Institute for Japanese Language and Linguistics, 2004]を参照して発話生成用単語リストを作成する。そして,Ehara [2023] の手法を参考にして発話生成用単語を使うように発話生成の ChatGPT に指示する。
## 3 提案手法
発話生成用単語リストの作成において,最も単純な手法として指定した語彙レベルの単語を分類語彙表から選択することが考えられるが,発話生成用単語リストが極端に大きくなり,対話のトピックに関連しない単語を多く含めてしまうため,適切な返答を生成できない可能性がある.
そこで,対話の一貫性を保つために,提案手法では対話のトピックに関連する単語で,かつ,指定の語彙レベルを満たす単語のみを選択する。
具体的には,まず,ChatGPTを用いて,対話のトピックを代表するキーワードを発話履歴から抽出する (3.1 節). 次に,分類語彙表の分類情報を参照して,対話のトピックを代表するキーワードと同じ分類の単語を抽出し,その中で指定した語彙レベルより簡単な単語を選択して発話生成用単語リストを作成する ( 3.2 節). 最後に, 作成した発話生成用単語リストと発話履歴を含めたプロンプトを ChatGPT に
提示し,それらの単語をできる限り使うように応答の発話を生成させる (3.3 節).
本論文では,我々の先行研究でも用いた分類語彙表の「聞く」の単語親密度 [Asahara, 2019]を語彙レベルとして用いる. 従って,単語親密度が高いと簡単な語であるとみなす.
## 3.1 トピックキーワードの抽出
トピックキーワードは ChatGPT を用いて発話履歴から抽出する。
ChatGPT に提示するプロンプトは二つのメッセー ジから構成される (図 1).ここで,二つ目のメッ
(System)
A と B の対話において、対話のトピックを代表する単語を抽出してください。一行に一単語を出力してください。
## (User)
$\mathrm{A}:\{$ 話者 $\mathrm{A}$ の発話 1$\}$
B: $\{$ 話者 B の発話 1$\}$
A: $\{$ 話者 A の発話 2$\}$
B: $\{$ 話者 B の発話 10$\}$
図 1 トピックキーワード抽出のプロンプト
セージには直近の 20 発話を入れ,最初の発話者を “A",二番目の発話者を“B”とする。
モデルの温度パラメータは再現性のために 0 に設定する.
## 3.2 発話生成用単語リストの作成
発話生成用単語リストを作成するために,分類語彙表からトピックキーワードと同じ分類の単語を抽出し,候補単語集合を作成する. 分類語彙表では各単語に品詞を表す一桁の整数部分と,上位語関係が反映された意味を表す四析の小数部分から構成される分類コード2) が付与されている.トピックに関連する単語は品詞を問わず該当するため,本論文では分類語彙表の分類コードは意味を表す小数部分のみ考慮する。
次に, ChatGPT が生成する応答の語彙レベルを制御するために,指定の語彙レベルより難しい単語を候補単語集合から除外する. 最後に,最大 $N$ 個の単語を候補単語集合からランダムにサンプリングする
ことで,固定サイズの発話生成用単語リストを作成する.
## 3.3 発話の生成
対話システムで用いるベースラインの ChatGPT モデルにおいて,プロンプトは状況を指定するシステムメッセージと発話履歴から構成される (図 2).提案手法は発話生成用単語リストを提示するため
(System) 必ずユーザとの対話の一貫性を保って、二文以下で応答してください。
図 3 提案システムの追加プロンプト
に, ベースラインモデル向けのプロンプトに二つのシステムメッセージを追加する (図 3).
モデルの温度パラメータは再現性のために 0 に設定し, frequency penalty は同じトークンを繰り返す意味不明な出力を防ぐために 0.3 に設定する.
## 4 評価実験
提案手法によって ChatGPT が生成する発話の語彙レベルが制御できるかの評価を行った.
## 4.1 対話データ
評価実験で用いる対話データとして我々の先行研究でも用いた BTSJ 1000 人日本語自然会話コーパス [USAMI, 2023] の雑談対話を用いる. 368 雑談対話のうち, 40 ターン未満の 8 対話を除外し, 残りの 360 対話において各対話の前半の最後の 20 発話を抽出してデータセットとする. 抽出した 20 発話において,次の発話が対話システムのアシスタントのターンになるように,一番目の話者をアシスタント,二番目の話者をユーザと仮定する。従って,20
発話の最後のユーザの発話に対してアシスタントが応答を生成する。
## 4.2 設定
評価実験では指定語彙レベル $L L$ を $0.6,0.8,1.0,1.2,1.4$ に設定し, 発話生成用単語リストのサイズ $N を 25,50,100,200,400,800,1600$ に設定する. 発話生成用単語リストはランダムに生成されるため, 評価実験では各対話に対して発話生成用単語リストを 10 個生成して ChatGPT に応答の発話を生成させる. 従って, 各 $(N, L L)$ ペアに対して合計 3,600 個の発話が生成される.
ベースラインモデルでは,プロンプトは対話毎に一意に決まるため, 各対話に対して 1 個の発話のみを生成する。
実験では,ChatGPT は “gpt-3.5-turbo-16k-0613” のモデルを用い,コンテンツフィルタは有害コンテンツと誤判断されて生成を拒否される確率を減らすように最も緩い設定にする。
## 5 結果と考察
## 5.1 無効な出力
コンテンツフィルタを最も緩い設定にしたにも関わらず,ChatGPT は入力したプロンプトと生成したテキストを潜在的に有害なコンテンツと判定して生成を拒否することがある。また,エラーメッセー ジや非常に長い文など, ChatGPT が想定している形式での応答ではない出力を生成することがある. 本実験では,これらのような応答は無効な出力と見なした.
各 $(N, L L)$ ペアにおいて合計 3,600 個の応答が生成されたが,その中で無効な出力の数を表 1 に示す. $N$ が大きい場合と $L L$ が低い場合で, ChatGPT が無効な出力を生成する傾向が見られた. このような場合,発話生成用単語リストに一般的にあまり使われない単語が出現する確率が上がるため,そのような単語が多すぎると ChatGPT は正常に発話を生成できなくなると考えられる。
表 1 無効な出力の数 (総数 $=3,600$ )
## 5.2 語彙レベルの制約の有効性
提案手法では指定した語彙レベルより難しい単語を除外した発話生成用単語リストを作成することで,生成される発話の語彙レベルを制御しているが,生成された発話には指定した語彙レベルより難しい単語が含まれることがあった. 各発話に対するそのような単語が含まれる割合のマクロ平均を表 2 に示す. “Base”の行はベースラインモデルの結果を表す。
$L L$ が高いほど,難しい単語が多く使われる傾向があるが,これは難しい単語であるか否かは $L L を ~$基準にしているため, $L L$ が高ければより多くの単語が難しいと判定されるからである.
$L L \geq 1.0$ の時,提案手法は $N=25$ の時にベースラインモデルに比べて難しい単語の割合が低くなっているが, $N>25$ の時はより多くの難しい単語が使われている。このことから,指定した語彙レベルが簡単な時に短い発話生成用単語リストは難しい単語の使用を減らす効果があると考えられる。
一方, $L L<1.0$ の時, ベースラインモデルは提案手法より使われた難しい単語が少ないが,それはそもそも ChatGPT は難しい単語ではなく, よく出現する単語を使う傾向があるからだと考えられる。
表 2 生成された発話で使われた難しい単語の割合のマク口平均
## 5.3 発話生成用単語の使用
表 3 生成された発話で使われた発話生成用単語の割合のマクロ平均
生成された発話における発話生成用単語リスト中の語の割合のマクロ平均を表 3 に示す. $N$ が小さい時, $L L$ が高ければより多くの発話生成用単語が使われるが,これは ChatGPT はよく出現する単語を使
う傾向があり,一定の発話生成用単語数 $N$ に対して $L L$ が高ければそのような単語がより多く含まれるからだと考えられる.
また,Nを 25 から 100 に増やした時,使われた発話生成用単語は少なくなるが,これは ChatGPT が長い発話生成用単語リストを正しく処理できないためと考えられる。
$N$ を更に増やすと,使われた発話生成用単語が再び増えるが,N が小さい時と異なり $L L$ が高くなっても発話生成用単語の使用はあまり増えない。これは, $N$ が大きい時は発話生成用単語リストには語彙レべルの制約に関わらず多くの単語が含まれているため, ChatGPT がリスト内の単語を偶然使う可能性が高くなるからだと考えられる。従って, ChatGPT に発話生成用単語を使わせるためには,短い発話生成用単語リストの方が有効であると言える.
## 5.4 生成された発話の語彙レベル
表 4 生成された発話で使われた最も難しい単語の語彙レベルのマクロ平均
表 5 生成された発話で使われた単語の語彙レベルの第一四分位数のマクロ平均
表 6 生成された発話で使われた最も簡単な単語の語彙レベルのマクロ平均
生成された発話で使われた最も難しい単語,難しさが上位 $25 \%$ の単語,最も簡単な単語の語彙レベルのマクロ平均をそれぞれ表 4 , 表 5 , 表 6 に示す. 使われた最も簡単な単語の語彙レベルは全ての $(N, L L)$ ペアに対してほぼ同じであり,同じレベルの簡単な単語は常に使われると考えられる。一方,使われた最も難しい単語と難しさが上位 $25 \%$ の単語の語彙レベルは $L L$ に応じて変化したため,提案システムは生成された発話の語彙レベルに影響を与えたと言える.
また,語彙レベルは $N$ が大きいほど簡単になり,発話生成用単語リストが長ければより簡単な単語がより多く使われることが分かる。
使われた最も難しい単語の語彙レベルが $L L より$低いことに関して,対話中に話者に一部分からない単語があっても問題なくコミュニケーションできるという我々の先行研究でも用いた仮定の元では問題にならない.
我々の先行研究では発話の語彙レベルは発話で使われた難しさが上位 $25 \%$ の単語の語彙レベルとして定義したが,本論文で生成された発話に対して同じ定義で計算しても $L L$ と一致しないことに関して,我々の先行研究では数百発話が考慮されるのに対し,ここでは一発話しか考慮されないため,単純には比較できない. そのため, 生成された発話の語彙レべルを定量的に測定するために更なる評価指標が必要である.
## 5.5 結論
評価実験の結果から,提案手法で最適な発話生成用単語数 $N$ は 25 であると結論付けられる. 性能に関して, $N=25$ の時 $L L$ より難しい単語の使用が少なく (5.2 節), 発話生成用単語の使用が多く(5.3 節),生成された発話の語彙レベルへの影響も多い (5.4 節). また,コストに関して,発話生成用単語リストが短いためプロンプトが短く, 発話の生成時間と費用も比較的少ない.
## 6 おわりに
本論文では,対話システムにおける語彙レベルを制御するためのモジュールを提案した. 対話システムのベースモデルとして ChatGPTを採用し,雑談対話を用いて提案手法を評価し,発話生成用単語数 $N$ と指定の語彙レベル $L L$ による影響を考察した。
今後の課題として,生成された発話の語彙レベルを定量的に測定するための評価指標を提案し,語彙レベルをより精密に制御するために発話生成用単語リストの作成手法を改良する予定である。
## 謝辞
本研究は JSPS 科研費 JP21K18358 の助成を受けたものです.
## 参考文献
M. Asahara. Word familiarity rate estimation using a Bayesian linear mixed model. In S. Paun and D. Hovy, editors, Proceedings of the First Workshop on Aggregating and Analysing Crowdsourced Annotations for NLP, pages 6-14, Hong Kong, Nov. 2019. Association for Computational Linguistics. doi: 10. 18653/v1/D19-5902. URL https://aclanthology. org/D19-5902.
Y. Ehara. Innovative software to efficiently learn english through extensive reading and personalized vocabulary acquisition. In N. Wang, G. Rebolledo-Mendez, V. Dimitrova, N. Matsuda, and O. C. Santos, editors, Artificial Intelligence in Education. Posters and Late Breaking Results, Workshops and Tutorials, Industry and Innovation Tracks, Practitioners, Doctoral Consortium and Blue Sky, pages 187-192, Cham, 2023. Springer Nature Switzerland. ISBN 9783-031-36336-8.
F. Landwehr, E. Varis Doggett, and R. M. Weber. Memories for virtual AI characters. In C. M. Keet, H.-Y. Lee, and S. Zarrieß, editors, Proceedings of the 16th International Natural Language Generation Conference, pages 237-252, Prague, Czechia, Sept. 2023. Association for Computational Linguistics. doi: 10.18653/ v1/2023.inlg-main.17. URL https://aclanthology . org/2023 .inlg-main. 17.
National Institute for Japanese Language and Linguistics. Bunrui goihyo zôho kaitei-ban (Word List by Semantic Principles Revised and Enlarged Edition). Dainippon Tosyo, Tokyo, 2004
M. J. Pickering and S. Garrod. Alignment as the basis for successful communication. Research on Language and Computation, 4:203-238, 2006.
Y. Tseng, T. Tokunaga, and H. Yokono. Lexical level alignment in dialogue. In Proceedings of the 27th Workshop on the Semantics and Pragmatics of Dialogue - Full Papers, Maribor, Slovenia, Aug. 2023. SEMDIAL. URL http://semdial.org/anthology/ Z23-Tseng_semdial_0010.pdf.
M. USAMI. Building of a Japanese 1000 person natural conversation corpus for pragmatic analyses and its multilateral studies, and ninjal institute-based projects: Multiple approaches to analyzing the communication of japanese language learners., 2023.
## A 予備実験
ChatGPT が語彙レベルを理解しているか検証した. 具体的には,二つの単語を ChatGPT に提示し, どちらがより簡単かを回答させた。
## A. 1 出題範囲
出題の候補は語彙分類表の分類コードの小数部分の同じ単語ペアとした. 合計 519 分類のうち 6,378,126ペアが対象となる.
語彙レベルの指標として「聞く」の単語親密度を採用し, 親密度の高い方の単語が簡単であるとみなした. また,単語ぺアの親密度の差が大きいほどどちらが簡単か判定しやすくなるため,どこまでの親密度の差を区別できるか分析するために単語ぺアは親密度の差を 0.2 刻みでグループし, $0.0 \sim 0.2$ から $3.6 \sim 3.8$ の 19 グループに分けた. 各グループから親密度の差が第 $5,15, \ldots, 95$ 百分位数となる単語ペアを抽出し, 合計 187 個の単語ペアを出題対象とした.
## A. 2 プロンプト
問題のプロンプトはタスク指定,模範回答,問題本文の三つの部分から構成される (図 4).
(System) 対話中に日本語学習者にとって分かりやすい方の単語を答えてください。単語のラベル ("A"または”B”)のみ出力すること。文脈がなくても必ず”A” か”B”を選択すること。
## (User) A: 仕事をする \\ B: 鞅掌する \\ (Assistant) A
(User) A: 食べ物
B: 嘉看
図 4 語彙レベル比較問題のプロンプト
問題本文において単語のラベルのバイアスを除去するために,各単語ペアに対して簡単な方の単語を Aにする問題と難しい方の単語を Aにする問題の二通りの問題を出題し,それぞれの正答率を分析した.
模範回答において正解の順番の影響を考慮し, 0-shot の他に模範回答が “A”, “B”, “AB”, “BA”, “ABAB”, “BABA”の合計 7 種類の設定で実験を行った.
## A. 3 結果
ChatGPT の正答率を図 5 に示す. 正答率が不安定であり,模範解答の提示順に回答が影響される傾向があるため,ChatGPT は語彙レベルの概念を上手く習得できていないと考えられる。
1-shot (B)
2-shot (AB)
2-shot (BA)
図 5 ChatGPT の語彙レベル比較問題の正答率. 青色とオレンジ色の棒はそれぞれ正解が A と B の問題に対する正答率を表す. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-4.pdf | # RealPersonaChat: 話者本人のペルソナと性格特性を含んだ 雑談対話コーパス
山下紗苗 ${ }^{1}$ 井上昂治 ${ }^{2}$ 郭傲 $^{1}$ 望月翔太 ${ }^{1}$ 河原達也 ${ }^{2}$ 東中竜一郎 ${ }^{1}$
1 名古屋大学大学院情報学研究科 2 京都大学大学院情報学研究科
\{yamashita.sanae.w7@s, guo.ao.i6@f, mochizuki.shota.k8@s\}.mail.nagoya-u.ac.jp
higashinaka@i.nagoya-u.ac.jp \{inoue.koji.3x@, kawahara@i.\}kyoto-u.ac.jp
## 概要
雑談対話システムを設計する際,個性は重要な要素である。人間らしく個性を表出可能な対話システムを実現するために,所与のペルソナに基づいて対話した PersonaChat コーパスが存在する。しかし,当該コーパスでは話者本人のペルソナを使用しておらず,不自然な対話が生じている可能性がある。 そこで,我々は,話者本人のペルソナと性格特性を含む,14,000 件の日本語対話からなる RealPersonaChat (RPC) コーパスを構築した. 我々は,RPC と既存のコーパスを比較し,RPC の対話はペルソナの情報を過剰に含まないこと,第三者による対話満足度が高いことを明らかにした。また,RPCを用いて個性を反映した対話システムが構築できることを示した.本コーパスは $\mathrm{GitHub}^{1)}$ で公開している.
## 1 はじめに
雑談対話システムを設計する際,個性は重要な要素である $[1,2]$. 人間らしく個性を表出可能な対話システムを実現するために,所与のペルソナに基づいて行われた雑談対話を収めた PersonaChat (PC) コーパスが存在する [3]. PC は,それぞれ異なるぺルソナ(話者のプロフィールをいくつかの文章で表したもの)を与えられた 2 人の話者が,それらに基づいて対話することで構築された。
しかし,PCでは架空のペルソナが使用されており,話者本人のペルソナが対象となっていないという問題がある.そのため,人間らしい個性が対話中に適切に表出されていないと考えられる。このようなコーパスで学習した対話システムは,人間らしい個性の表出が困難な可能性がある.
そこで我々は,話者本人のペルソナと性格特性を
1) https://github.com/nu-dialogue/real-persona-chat収集し,話者同士に自由に雑談対話を行わせることで,14,000 件の日本語対話からなる RealPersonaChat (RPC) コーパスを構築した。本論文では,まず,その構築方法と統計情報を述べる. 次に,対話にぺルソナの情報が出現する頻度と対話満足度について,RPC と既存のコーパスである JPersonaChat (JPC; PersonaChat コーパスの日本語版)コーパスを比較する.また,RPCを用いて個性を反映した対話システムを構築し,その性能を評価する。最後に,本コー パスについて倫理的な観点から議論する.
## 2 関連研究
データに基づく方法論で対話システムを開発するために,多くの大規模な対話コーパスが構築されてきた $[4,5]$. この流れの中で, 人間らしい個性を持った対話システムを実現するために構築されたコーパスが,架空のペルソナを基に行われた対話からなる PC [3] や,その日本語版である JPC [6] である.
Tang ら [7] は, DialoGPT [8]を PC で fine-tune することで,与えられたペルソナの情報を反映した対話システムを開発した. Shea ら [9] は,PCを用いて,発話候補がペルソナと合致するかどうかを報酬とした強化学習を行うことで,対話システムの個性の一貫性を向上させることに成功している。JPC は,日本語の対話システムに個性を持たせるために広く利用されている $[10,11]$.
話者の性格情報が付属したその他のコーパスとして, PersonalDialog [2], PANDORA [12], FriendsPersona [13] などがある.これらのコーパスは話者本人の Big Five,年齢,性別などの情報を含んでいるが, ソーシャルメディア上でのやり取りやテレビ番組から収集した対話が対象となっており,一対一のテキストチャットとは異なる性質を持つ。また,ペルソナや多様な性格特性も含まれていない.
## 3 RealPersonaChat
RealPersonaChat コーパスの構築は,話者の募集,事前アンケートの実施,対話の収集,事後アンケー トの実施,の順に実施した.
コーパスの収集にあたっては,名古屋大学において,収集手順やデータの保管方法等,倫理面についての審査を経ている。対話データの収集においては,すべての話者は,自身や第三者の個人情報を提示しないこと,著作権を放棄すること,データを公開することに同意するとともに,我々が,すべてのデータについて個人情報や不適切と考えられる発話がないかを確認している.
## 3.1 話者の募集
我々は,クラウドソーシング2)を通じて 233 人の話者を募った. 話者の条件は, 日本語の母語話者であり,テキストチャットに慣れていること(1 分あたり 200 文字以上大力可能)とした. 可能な限り性別や年齢のバランスを取った結果,男女比は $4: 6$,年齢は $20,30,40$ 代がそれぞれ 3 割程度である.
## 3.2 事前アンケートの実施
対話データの収集に先んじて,話者は,自身の性格特性に関する事前アンケートに回答した。話者の幅広い性格特性をカバーするために,我々は次の 5 つのアンケートを使用した.
- Big Five [14, 15]: 性格を評価する尺度.和田 [16] による質問項目を用いた。 5 項目からなる.
- Kikuchi’s Scale of Social Skills (KiSS-18) [17]: 社会的スキルを評価する尺度. 6 項目からなる.
- Inclusion of Others in the Self (IOS) [18]: 他者との距離感を評価する尺度. 1 項目からなる.
- Adult Temperament Questionnaire (ATQ) [19]: 気質を評価する尺度. 13 項目からなる。
- Self-Monitoring Scale (SMS) [20]: 様々な状況での適切な行動制御能力を評価する尺度. 3 項目からなる。
上記の性格特性に加えて,話者の属性とテキストチャットの経験についても尋ねた. 属性は,性別,年齢,教育歴,就労状況,居住地域を含む. テキストチャットの経験は,初めてテキストチャットをした時の年齢,普段のテキストチャットの頻度,相
2) https://www. lancers.jp/
## 手,主な内容を含む.
また,ペルソナとして,話者自身を表す簡潔な文を 10 文作成させた. 各文は約 5 30 文字の長さとした. ペルソナの内容は,他者が自分をよく理解できるようなものとし,矛盾や重複がないように指示した. 性格特性の項目の一覧,および,ペルソナの例は,付録 $\mathrm{A}$ の表 7 を参照のこと。
## 3.3 対話の収集
話者はペアとなり,テキストチャットを行った. 1 対話あたり 30 発話以上, 1 発話あたり 50 文字以内を目安として,各話者は交互に発話した.話者の組み合わせが偏らないように,同じぺアは 40 回以上対話できないものとした.また, 1 人の話者は 200 回以上対話できないものとした. このような条件のもと,話者は自由に話題を選んで対話した。
各対話が終了した後, 話者は対話の質(相手発話の情報量, 相手発話の理解度,相手の親しみやすさ,自身の興味の度合い,自身の積極性,自身の満足度)をそれぞれ 5 段階で評価した。
## 3.4 事後アンケートの実施
各話者は,自身のすべての対話が完了した後,印象に残った対話を自由記述で回答した。
## 4 統計情報
表 1 に,RPC の基本統計量を示す。比較のために,既存の日本語コーパスである JPC と英語コーパスである PC の統計量も示す。なお,JPC は,PCのペルソナを日本語に翻訳し,翻訳されたペルソナを用いて対話を収集したものである. 我々が構築した RPC は,14,000 件の対話からなる最大のコーパスである。発話数としても,JPCの 7 倍近くあり,デー タ駆動型の研究には十分な分量を有していると言える.また,話者本人のペルソナや性格特性を含むという他のデータセットでは見られない特徵を持つ.
表 2 に,対話後アンケートの結果を示す. 平均評価はどれも 4.5 点前後であった(最低 1 点,最高 5 点). $60 \%$ 以上の評価が最高点の 5 点であったことから,RPC には満足度の高い対話が含まれていることが確認できる.
## 5 既存コーパスとの比較
RPC の特徴を明らかにするため,RPC を既存コー パスの JPC と比較した.
表 1 RealPersonaChat, JPersonaChat, および PersonaChat の基本統計量.
表 2 対話の質の評価結果。
## 5.1 ペルソナ出現率
与えられたペルソナに基づいて収集された JPC とそうでない RPC の間で,ペルソナに含まれる単語 (ペルソナ単語と呼ぶ)が発話に出現する割合に違いがあるかを検証した.具体的には,式 (1)で定義されるペルソナ出現率 (PF) を求め, RPC と JPC の $\mathrm{PF}$ 比較した。
$
\mathrm{PF}=\frac{\text { 発話に含まれるペルソナ単語数 }}{\text { 発話に含まれる単語数 }}
$
ペルソナの長さは RPC と JPC で異なるため, RPC のペルソナ出現率を求める場合は, 式 (1) に $L_{\mathrm{JPC}} / L_{\mathrm{RPC}}$ を掛けて補正した。ここで, $L$ は各コーパスにおけるペルソナの平均文字数を示す. 形態素解析器には MeCab [21], 辞書には NEologd [22]を用いた. PF は,ペルソナ単語を名詞または内容語(名詞,動詞,形容詞,副詞)とした場合についてそれぞれ求めた.
表 3 に RPC と JPCの PFを示す. RPCの PF は 2 3\%であった.この值は,ペルソナの使用に関して何も指示されていない,自然な対話における PF と考えられる。一方で,JPC の PF は 13 14\%と高く,Mann Whitney U 検定を実施したところ,RPC と $\mathrm{JPC}$ の間には有意差が見られた $(p<0.05)$. このことから,JPC の対話は過剩にペルソナの情報を含んでいる可能性が考えられる。表 3 ペルソナ出現率 (PF)。*はRPC と JPC の間で $p<0.05$ で有意差が見られたことを示す.
## 5.2 第三者による主観評価
対話の質,および,対話から話者の性格やペルソナを認識できる度合いを比較するために,RPC と JPC の対話を第三者に主観評価させた. 具体的には,まず,評価対象として各コーパスからランダムに 30 対話ずつ, 合計 60 対話を抽出した. そして, 1 つの対話が異なる 3 人に評価されるように,クラウドソーシング3) で募った 60 人の評価者に,それぞれ 3 対話ずつ評価させた。
主観評価には次の項目を用いた。
- 対話の質 : 第三者目線で,対話の一貫性,情報量,満足度 [23] を 5 段階で評価させた。
・ペルソナの正解率 : 対話に参加した 2 人の話者のうち一方のペルソナと,他の対話から得られた当該話者のものではないぺルソナから,前者のペルソナと思われるものを選択させた。この指標の値が高ければ,対話がペルソナと強く関連していると考えられる。
- 性格特性スコアの相関係数:対話に参加した 2 人の話者のうち一方の話者の性格について, Big Five のアンケート (TIPI-J) [24] に回答させた後,このスコアと話者本人のスコアとの相関係数を求めた. アンケートを第三者に回答させる方法は Jiang ら [13] を参考にした。この指標の值が高ければ,対話から性格特性が強く認識可能であると考えられる。なお,JPC には話者の
表 4 対話の質の第三者評価の結果。*は RPC と JPC の間で $p<0.05$ で有意差が見られたことを示す.
表 5 ペルソナの正解率の第三者評価の結果. *は $p<0.05$ で有意差が見られたことを示す.
性格特性スコアが存在しないため,この評価は RPC に対してのみ行った。
表 4 に対話の質の評価結果を示す. Mann Whitney $\mathrm{U}$ 検定を実施したところ,満足度について,RPC が JPC を有意に上回っていることが確認できた $(p<0.05)$. 他の項目には差が見られなかった.
表 5 にペルソナの正解率を示す.RPC の $61 \%$ は, ペルソナの使用に関して何も指示されていない,自然な対話における正解率と考えられる。一方で, JPC の正解率は $82 \%$ であり,比率の差の検定を実施したところ,JPC が RPC を有意に上回っていた $(p<0.05)$. このことから, JPC の対話はペルソナと強く関連しており,JPC がペルソナの使用において偏った分布を持つ可能性が示唆された.
性格特性スコアの相関係数に関しては,開放性,誠実性,外向性,協調性,神経症傾向における Pearson の相関係数は,それぞれ $-0.09,0.17,-0.04$, 0.14, 0.04 であり,相関は低かった.このことは,自然に収集された対話から話者の性格特性を認識することが難しいことを意味しており,話者本人が自覚する性格と第三者が認識可能な性格に差があることが示唆された。
## 6 対話システムへの適用
我々は,RPC の対話システム構築における有用性を評価するため,RPCを用いて実際に対話システムを構築し,その性能を評価した(本評価の詳細は [25]を参照のこと).
対話システムは, OpenAIの gpt-4-0613 にプロンプトを介して話者のペルソナや性格特性を与えたものとし,対話履歴を入力として次の発話を出力するように設計した. ペルソナは, 10 文をそのまま用いた. 性格特性は,各スコアをすべての話者の中央値で二分し,「開放性が高い」「誠実性が低い」のように文章化して用いた。表 6 RPCを用いた対話システムの評価結果.飯塚ら [25] の論文より抜粋.太字は各列の最大値を示す。
ペルソナと性格特性が対話のパフォーマンスに及ぼす影響を調べるため,プロンプトで与える情報を 「ペルソナ+性格特性」「ペルソナ」「性格特性」「なし」と変化させた 4 種類の対話システムを構築した. ペルソナや性格特性には,RPCからランダムに選んだ 10 人の話者のものを使用した。
評価にあたっては,120人のクラウドワーカを 30 人ずつに分け,システムと交互にテキストチャットを行わせ,一貫性,情報性,満足度を 5 段階で評価させた. 対話の長さは 20 発話とした.
表 6 に評価結果を示す.ペルソナと性格特性の両方を用いた結果,全体を通して高いスコアが得られた。一方で,性格特性のみを用いた結果,情報量や満足度が低下した,そのような対話では,内向的な性格を与えると「そう。」「別に。」といった単調な返事をするなど,性格特性が反映されすぎることが確認された。このことは,個性を反映した発話生成が可能であることを示唆している.
## 7 おわりに
本研究では,話者本人のペルソナや性格特性を収集して当該話者に自由に対話をさせることで,14,000 件の日本語対話からなる RealPersonaChat (RPC) コーパスを構築した. 統計量や既存コーパスとの比較を通じて,RPC の自然さと対話の質(特に満足度)が高いことを確認した。また,RPCを用いて個性を反映した対話システムが構築できることを確認した。
本コーパスの利用においては,倫理的な側面を考慮する必要がある. 特に,プライバシーの保護 (データから個人を特定しない)には十分留意する必要がある.また,本コーパスを用いることで,対話からの話者の属性や性格特性の推定が可能となると考えられるため,自身の情報を推定されたくない話者の権利についても留意すべきである [26]. さらに,特定の話者へのなりすましなどへの利用も考えられるため,そのような利用がなされないためのガイドラインを提示する必要があると考える。
## 謝辞
本研究は,JST ムーンショット型研究開発事業, JPMJMS2011の支援を受けたものである.
## 参考文献
[1] François Mairesse and Marilyn Walker. PERSONAGE: Personality generation for dialogue. In Proceedings of the 45th Annual Meeting of the Association of Computational Linguistics, pp. 496-503, 2007.
[2] Yinhe Zheng, Guanyi Chen, Minlie Huang, Song Liu, and Xuan Zhu. Personalized dialogue generation with diversified traits. arXiv preprint arXiv:1901.09672, 2019.
[3] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, 2018.
[4] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multiturn dialogue dataset. In Proceedings of the 8th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, 2017.
[5] Hannah Rashkin, Eric Michael Smith, Margaret Li, and YLan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, 2019.
[6] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based Japanese chit-chat systems. In Proceedings of 2022 IEEE Spoken Language Technology Workshop, pp. 685-691, 2023.
[7] Fengyi Tang, Lifan Zeng, Fei Wang, and Jiayu Zhou. Persona authentication through generative dialogue. arXiv preprint arXiv:2110.12949, 2021.
[8] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DialoGPT: Large-scale generative pre-training for conversational response generation. arXiv preprint arXiv:1911.00536, 2019.
[9] Ryan Shea and Zhou Yu. Building persona consistent dialogue agents with offline reinforcement learning. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 1778-1795, 2023 .
[10] Tomohito Kasahara, Daisuke Kawahara, Nguyen Tung, Shengzhe Li, Kenta Shinzato, and Toshinori Sato. Building a personalized dialogue system with prompt-tuning. In Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies: Student Research Workshop, pp. 96-105, 2022.
[11] Kenta Yamamoto, Koji Inoue, and Tatsuya Kawahara. Character expression of a conversational robot for adapting to user personality. Advanced Robotics, pp. 1-11, 2023.
[12] Matej Gjurković, Mladen Karan, Iva Vukojević, Mihaela
Bošnjak, and Jan Snajder. PANDORA talks: Personality and demographics on Reddit. In Proceedings of the 9th International Workshop on Natural Language Processing for Social Media, pp. 138-152, 2021.
[13] Hang Jiang, Xianzhe Zhang, and Jinho D Choi. Automatic text-based personality recognition on monologues and multiparty dialogues using attentive networks and contextual embeddings. In Proceedings of the 34th AAAI Conference on Artificial Intelligence, Vol. 34, pp. 13821-13822, 2020.
[14] Lewis R Goldberg. An alternative "description of personality": The big-five factor structure. Journal of Personality and Social Psychology, Vol. 59, No. 6, pp. 1216-1229, 1990.
[15] Robert R McCrae and Oliver P John. An introduction to the five-factor model and its applications. Journal of Personality, Vol. 60, No. 2, pp. 175-215, 1992.
[16] 和田さゆり. 性格特性用語を用いた Big Five 尺度の作成. 心理学研究, Vol. 67, No. 1, pp. 61-67, 1996.
[17] 菊池章夫. KiSS-18 研究ノート. 岩手県立大学社会福祉学部紀要, Vol. 6, No. 2, pp. 41-51, 2004.
[18] Arthur Aron, Elaine N Aron, and Danny Smollan. Inclusion of other in the self scale and the structure of interpersonal closeness. Journal of Personality and Social Psychology, Vol. 63, No. 4, p. 596, 1992.
[19] David E Evans and Mary K Rothbart. Developing a model for adult temperament. Journal of Research in Personality, Vol. 41, No. 4, pp. 868-888, 2007.
[20]岩淵千明, 田中国夫, 中里浩明. セルフ・モニタリング尺度に関する研究. 心理学研究, Vol. 53, No. 1, pp. 54-57, 1982.
[21] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the $\mathbf{2 0 0 4}$ Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004.
[22] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-NEologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会発表論文集, pp. 875-878, 2017.
[23] Shikib Mehri, Jinho Choi, Luis Fernando D'Haro, Jan Deriu, Maxine Eskenazi, Milica Gasic, Kallirroi Georgila, Dilek Hakkani-Tur, Zekang Li, Verena Rieser, Samira Shaikh, David Traum, Yi-Ting Yeh, Zhou Yu, Yizhe Zhang, and Chen Zhang. Report from the NSF future directions workshop on automatic evaluation of dialog: Research directions and challenges. arXiv preprint arXiv:2203.10012, 2022.
[24] 小塩真司, 阿部晋吾, Pino Cutrone. 日本語版 Ten Item Personality Inventory (TIPI-J) 作成の試み. パーソナリティ研究, Vol. 21, No. 1, 2012.
[25] Shinya Iizuka, Shota Mochizuki, Atsumoto Ohashi, Sanae Yamashita, Ao Guo, and Ryuichiro Higashinaka. Clarifying the dialogue-level performance of GPT-3.5 and GPT-4 in task-oriented and non-task-oriented dialogue systems. In Proceedings of the AI-HRI Symposium at AAAI-FSS 2023, 2023.
[26] Rachael Tatman. What I won't build, 2020. Keynote at the Fourth Widening Natural Language Processing Workshop at Annual Meeting of the Association for Computational Linguistics.
## A 付録
表 7 RealPersonaChat のペルソナ,性格特性,話者の属性,対話の例.下線は対話に含まれるペルソナの情報を示す。性格特性スコアは,Big Five, IOS, ATQ が 1 7,KiSS-18, SMS が 1 5 の値をとる。また,表に含まれる以外の情報として, テキストチャットの経験に関するアンケート結果がある.
& \\
| NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-5.pdf | # JMultiWOZ に対する対話状態アノテーションの付与と 対話システムの実装評価
大橋厚元*平井龍*飯塚慎也 東中竜一郎
名古屋大学大学院情報学研究科
\{ohashi.atsumoto.c0, hirai.ryu.k6, iizuka.shinya.a8\}@s.mail.nagoya-u.ac.jp
higashinaka@i.nagoya-u.ac.jp
## 概要
日本語のマルチドメインタスク指向型対話デー タセットとして JMultiWOZ が構築されている.しかし,対話状態のアノテーションが付与されていないため,対話モデルの構築には利用できない.本研究では新たに,対話状態のアノテーションを JMultiWOZ に対して追加することで,対話状態追跡と応答生成を遂行できる対話モデルの構築を目指す. さらに,本データセットを用いて実装された対話モデルの評価実験を実施し, 英語圈の標準的なデータセットである MultiWOZ2.2 と同難易度のベンチマークを,JMultiWOZ が提供できることを示す1).
## 1 はじめに
タスク指向型対話システムの研究では,ニューラルモデルをべースとした手法の活発な導入 $[1,2]$ によって, 対話能力の進化が著しい $[3,4]$. このような進化には,ニューラルモデルを学習するための対話データセットが必須である.英語圏では,現在までに構築された数多くの対話データセットが,深層学習を用いた対話モデルの発展に貢献してきた [5, 6].
MultiWOZ [7] は,現在英語圈において最も用いられているタスク指向型対話データセットの一つであり,旅行に関する 7 つのドメインにまたがる対話を 1 万件以上収録している大規模コーパスである. MultiWOZ を先駆けとして,より複雑で大規模な夕スク指向型対話データセットも多く構築されており $[8,9,10]$, 近年の対話モデルの発展を牽引している $[11,12,13]$. また,中国語圈においても,複数のマルチドメインタスク指向型対話データセットが構築 $[14,15,16]$ され,中国語タスク指向型対話システ
図 1 JMultiWOZに含まれる,2 ドメイン(飲食店とタクシー)にまたがる対話の例. 灰色と緑色のテキストはそれぞれ旅行者役 (user) と情報提供者役 (wizard) の発話を示している。また,赤色と青色のボックスは,wizardが入力したデータベース検索クエリとその結果を示している。
ムの発展に寄与している.
先行研究において我々は,日本語によるタスク指向型対話システムの研究開発の促進を目指し,日本語初のマルチドメインタスク指向型対話データセット JMultiWOZを構築した [17](対話例を図 1 に示す)。そして,検索クエリを推定するモデルを学習,評価することで,本データセットの有用性を示した. しかし,現状の JMultiWOZ には対話状態ラベルのアノテーションが付与されておらず,タスク指向型対話における主要なタスク,すなわち,対話状態追跡 (dialogue state tracking; DST) と応答生成 (response generation; RG) のモデリングが行えない, という制限があった。これは,End-to-End な対話システムを構築できないことを意味する.
本研究では,日本語におけるDST およびRG のベンチマークを提供するため,先行研究における JMultiWOZ に対して新たに対話状態アノテー ションを追加する。そして,MultiWOZにおける state-of-the-art (SOTA) モデル [18] と, 最新の LLM
表 1 Wizard が入力したデータベース検索クエリと,追加のアノテーションによって得られる対話状態ラベルの例. 太字は,検索クエリと対話状態の差分を示している。文脈 User: 札幌のホテルを探していて、Wi-Fi が無料で使えると助かります。
Wizard:では、JR INN 札幌はどうでしょう User: よさそうですね,いくらくらいで
ベースのモデル [19]を用いて, JMultiWOZ の DST および RG を学習し,本データセットが MultiWOZ と同難易度のベンチマークを提供できることを実証する. さらに,これら対話モデルの人間評価実験を実施し,最新の LLM であっても日本語における夕スク指向型対話の能力には課題があることを示す.
## 2 JMultiWOZ の概要
JMultiWOZ は, 日本の 9 都市(札幌,仙台,東京,横浜, 名古屋, 京都, 大阪, 福岡, 那覇)のいずれかへの旅行者が,観光情報を収集しながら旅行を計画する対話を,合計で 4,246 対話収録したデータセットである [7]. 対話のドメインは, 観光名所, 宿泊施設, 飲食店, 買い物施設, タクシー, 天気の 6 つにわたる. 各対話は, Wizard-of-OZ 法 [20] に基づき,旅行者役 (user) と情報提供者役 (wizard) のクラウドワー カによって実施された. 対話の全てのターンには, user の要求に基づいて wizard が検索したデータベー スの検索クエリとその検索結果が記録されている。
## 3 対話状態アノテーション
対話状態とは,各ターン時点までに判明している, ユーザが求めるエンティティ(具体的な観光名所や飲食店のこと)の条件を記録した情報であり, スロットと值のペアの集合で定義される. 基本的には,対話収集時に wizard が入力したデータベース検索クエリが対話状態の一部として利用できる. しかし, ユーザが伝達したい要求をすべてカバーするためには,検索クエリには反映されなかった情報も対話状態に含める必要がある.
例えば,表 1 に示されるような対話について, wizard が提案したエンティティ名を user が受け入れた場合, wizard は前ターンの検索条件を変えてデー タベースを再検索する必要はないため,検索クエリは更新されない。しかしそのエンティティ名はユー ザの(暗黙的な)要求であるため,対話状態に含め
られるべきである.
対話状態アノテーションを付与するため,我々はクラウドワーカを募集し,検索クエリに含まれなかった非明示的な値をアノテーションした. 各ワー カは,我々が用意したアノテーション用のUIを用いて,各ターンの対話状態をアノテーションした. アノテーションの質を担保するため, 作業は練習と本番の二段階に分けて実施した。まず各ワーカは, アノテーション作業のマニュアルを読んだ後,練習として 10 対話分の作業を実施した. 誤りのあった作業者には著者からの指摘・フィードバックが与えられ,再度練習を実施した.誤りの無くなった作業者のみが本番のアノテーション作業に参加した.
最終的に,6名のクラウドワーカが分担して,全 4,246 対話に含まれる合計 30,593 ターン分の対話状態アノテーションを付与した. 結果として, 合計 58,745 件のスロット(検索クエリに記録されていたスロット数の約 $37.8 \% )$ が対話状態の要素として追加された. 以降では,この対話状態アノテーションが付与された JMultiWOZを単に JMultiWOZ と呼ぶ.
## 4 ベンチマーク
JMultiWOZ は,タスク指向型対話システムに必要となる 2 つのタスク,すなわち対話状態追跡 (DST) と応答生成 (RG) のベンチマークを提供する.DST は各ターンの対話状態を推定するタスクであり,RG は各ターンまでの対話履歴からシステムの次の応答を生成するタスクである。JMultiWOZが,既存の英語対話データセットと同程度のベンチマークを提供できることを実証するため,MultiWOZ2.22) [21] おける SOTA 手法と最新の LLM ベースの手法を用いて,上記 2 タスクを評価した。
## 4.1 ベースラインモデル
近年のタスク指向型対話モデルの構築手法は,中規模の事前学習済み言語モデルを対話データセットで fine-tuning する手法 [11] と,LLM を用い zero-shot もしくは few-shot 設定で応答生成する手法 [22] の 2 つに分類される. 本研究では,JMultiWOZ に基づいて以下のように両手法を実装し評価した:
Fine-tuning MultiWOZ2.2における SOTA モデルである, T5 [23] ベースのモデル TOATOD [18] を使用した. TOATOD の基盤モデルとしては多数の夕
2)MultiWOZ2.2 は,オリジナルの MultiWOZ における多数のアノテーションエラーを修正したバージョンである.
(a) T5 パイプライン [18]. (1) 対話履歴から対話状態が推定され,(2)その結果に基づいて最終的な応答が生成される.
(b) Zero-shot 設定での LLM パイプライン [19]. (1) 対話履歴から現在話題となっているドメイン(アクティブドメイン) を推定する.そして,アクティブドメインのみに着目して (2) 対話状態追跡と (3) 応答生成を実施する.
図 $2 \mathrm{~T} 5$ および LLMを用いた,タスク指向型対話システムのパイプライン
スク指向型対話データセットで事前学習された $\mathrm{T} 5$ モデルが用いられるが,そのような資源は日本語では存在しない. そのため,ここでは,単に日本語データで事前学習された一般的な $\mathrm{T} 5$ モデル 2 つ (T5-base/large ${ }^{3)}$ ) を基盤モデルとして使用する.
T5 の fine-tuning では, DST および RG の入出力のマッピングを, seq-to-seqにモデル化する。つまり,各ターンに対し, DST では対話履歴から対話状態へ, RG では対話履歴, 対話状態, データベース検索結果から応答文へのマッピングをそれぞれ学習する. モデルの入出力,及び学習詳細は A. 1 節を参照されたい。両タスクは単一の T5によって同時に学習する。学習後の T5による,DST と RG からなる end-to-end 応答生成のパイプラインを図 2a に示す.
LLM-based zero-/few-shot Zero-/few-shot 設定における DST および RGには,LLM パイプライン [19] を用いる。図 $2 b$ に,zero-shot 応答生成のための 3 ステップからなるパイプライン処理を示す. Few-shot 設定においては,各ステップで用いられるプロンプトに,2つの対話事例を含める. 対話事例は,train セットから,対話文脈の埋め込み4) が類似した対話を抽出することで得られる。
Zero-/few-shot のための LLM としては, OpenAI が API を提供する GPT-3.5 (gpt-3.5-turbo)と GPT-4 (gpt-4)を用いた. GPT-3.5 は, Hudeček ら [19] の評価実験内で検証された複数の LLM の中で,当時の最高性能を達成している. また GPT-4 は,日本語性能が最も高い LLM である ${ }^{5)}$.プロンプトとしては,
3) https://huggingface.co/retrieva-jp/t5-large-long
4)日本語文埋め込みモデルを利用した.
5) 2023 年 10 月時点での日本語 LLM リーダボードに基づく.表 2 自動評価ベンチマーク結果. ダガー†は,Bang ら [18] が報告した, MultiWOZ2.2における TOATOD (T5-base に相当)の評価値を引用していることを示す. ダブルダガー‡は, Hudeček ら [19]が報告した, MultiWOZ2.2 における GPT-3.5 の評価值を引用していることを示す.
Hudeček ら [19] の研究で用いられたプロンプトを参考にしつつ,JMultiWOZ 向けに日本語で作成し直したものを用いた(A. 2 節にプロンプト例を示す).
## 4.2 評価尺度
DST の評価尺度としては, joint goal accuracy (JGA) と Slot-F1を用いた. JGA は,各ターンに推定された対話状態と,真の対話状態が完全一致したかどうかの 0/1によって評価される. Slot-F1 は,各ターン推定された対話状態と真の対話状態の一致率を F1 によって評価される. RGの評価尺度としては,生成された応答文と真の応答文との BLEUを用いた。
## 4.3 結果
表 2 は,MultiWOZ2.2 における結果と JMultiWOZ における結果の比較を示している. JMultiWOZ では, DSTと RGの両方において, fine-tuning 手法, すなわち,T5-base/large が最高性能であり,zero-/few-shot における LLM の性能には限界があった. この傾向は,MultiWOZ の結果と類似している。
表 3 人間評価実験結果. “N” は,各モデルと対話した評価者の数を示す. “Und.”, “App.”, “Sat.”は,それぞれ,システムの理解能力,システム応答の適切さ,対話の満足度のスコアを示す. †は, Iizuka ら [24] が報告した,MultiWOZ2.2における各モデルの評価値を引用していることを示す. また太字は, MultiWOZ と比較して JMultiWOZで大きく低下した Success スコアを示す.
DST の標準的な尺度である JGA は,MultiWOZ と JMultiWOZ で大きな差は見られなかった.これは, JMultiWOZ の対話が,MultiWOZ のそれと同程度の複雑さを持ち,また,対話状態アノテーションの質が同程度であることを示している。したがって, JMultiWOZ は,既存データセットと同程度の DST ベンチマークを提供できることが示唆された.
RG の尺度である BLEU については, MultiWOZ に比べ JMultiWOZ が高い. この要因として, JMultiWOZ の対話では wizard の発話に一貫性がある, という点が考えられる. MultiWOZ とは異なり, JMultiWOZ の収集では,一つの対話に対し一人の wizard のみが従事した. さらに, wizard は対話収集前に十分な訓練を受けた. これら質の管理によってシステム発話の一貫性が達成されたと推察される.
## 5 人間評価実験
タスク指向型対話モデルのタスク達成能力を評価するためには,自動評価だけでなく,人間との実際の対話を用いた評価も重要である. 本節では, 4 節で用いた 4 つの対話モデルの end-to-end な対話能力を,クラウドワーカとの対話によって評価した. なお,GPT-3.5 および GPT-4 では,その性能の高さ (表 2 を参照)から few-shot 設定を用いた.
## 5.1 実験設定
本実験では,MultiWOZ において,TOATOD [18] と LLM パイプライン [19] をクラウドソーシングを用いた対話によって評価した Iizuka ら [24] の実験設定にならった。具体的には,各ワーカは,まずランダムな対話ゴールを提示され,そのゴールを達成できるように 4 つのシステムのうちいずれかと対話した. 各対話は最大 20 ターンとし, ゴールが達成できたか (Success) をワーカが判断した. ワーカは対話終了後, システムの理解能力, システム応答の適切さ,対話の満足度のそれぞれを 5 段階で主観的に評価した.
## 5.2 結果
表 3 に,JMultiWOZ における結果,そして比較のため, Iizuka ら [24] が報告した MultiWOZ における結果をそれぞれ示す. Fine-tuning 手法である T5-base の Success は,MultiWOZにおいてそれに対応する TOATOD(T5-base)のそれと大きな違いは見られなかった. したがって, JMultiWOZを用いることで,日本語において,MultiWOZ と同程度の能力のタスク指向型対話モデルの学習・システム構築が可能であることが示唆された.
表 3 から,few-shot 設定における GPT-3.5 と GPT-4 の性能は, MultiWOZ の場合に比べ若干低下することがわかる.4 節におけるターン単位のスコアは低下していなかった(表 2 を参照)ことから,GPT-4 など高性能な LLM であっても,複数ターンからなる日本語対話における few-shot 対話生成能力は,英語と比較すると限界があると考えられる。
## 6 おわりに
本研究では,日本語における DST および RG のベンチマークを提供するため,JMultiWOZ に対して対話状態アノテーションを追加した. そして, MultiWOZ2.2 で検証されてきた fine-tuning ベースの対話モデルと,最新の LLM ベースのモデルを用いて,JMultiWOZ の DST および RG を学習し,本デー タセットが MultiWOZ と同難易度のベンチマークを提供できることを実証した。さらに,これら対話モデルの人間評価実験を実施し,最新の LLM であっても日本語におけるタスク指向型対話の能力には課題があることを示した. JMultiWOZ の活用によって, 日本語におけるタスク指向型対話システムの研究開発が進展することを期待したい.
## 謝辞
本研究は,JST ムーンショット型研究開発事業, JPMJMS2011の支援を受けたものです.
## 参考文献
[1] Ehsan Hosseini-Asl, Bryan McCann, Chien-Sheng Wu, Semih Yavuz, and Richard Socher. A simple language model for task-oriented dialogue. In Proc. NeurIPS, pp. 20179-20191, 2020.
[2] Wanwei He, Yinpei Dai, Yinhe Zheng, Yuchuan Wu, Zheng Cao, Dermot Liu, Peng Jiang, Min Yang, Fei Huang, Luo Si, Jian Sun, and Yongbin Li. GALAXY: A Generative Pre-trained Model for Task-Oriented Dialog with Semi-supervised Learning and Explicit Policy Injection. In Proc. AAAI, No. 10, pp. 10749-10757, 2022.
[3] Zheng Zhang, Ryuichi Takanobu, Qi Zhu, MinLie Huang, and XiaoYan Zhu. Recent advances and challenges in taskoriented dialog systems. Science China Technological Sciences, pp. 1-17, 2020.
[4] Libo Qin, Wenbo Pan, Qiguang Chen, Lizi Liao, Zhou Yu, Yue Zhang, Wanxiang Che, and Min Li. End-toend Task-oriented Dialogue: A Survey of Tasks, Methods, and Future Directions. In Proc. EMNLP, pp. 5925-5941, 2023 .
[5] Mihail Eric, Lakshmi Krishnan, Francois Charette, and Christopher D. Manning. Key-Value Retrieval Networks for Task-Oriented Dialogue. In Proc. SIGDIAL, pp. 3749, 2017.
[6] Pararth Shah, Dilek Hakkani-Tür, Gokhan Tür, Abhinav Rastogi, Ankur Bapna, Neha Nayak, and Larry Heck. Building a Conversational Agent Overnight with Dialogue Self-Play. arXiv preprint arXiv:1801.04871, 2018.
[7] Pawe 1 Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - A Large-Scale MultiDomain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling. In Proc. EMNLP, pp. 5016-5026, 2018.
[8] Abhinav Rastogi, Xiaoxue Zang, Srinivas Sunkara, Raghav Gupta, and Pranav Khaitan. Towards Scalable Multi-Domain Conversational Agents: The SchemaGuided Dialogue Dataset. In Proc. AAAI, Vol. 34, pp. 8689-8696, 2020.
[9] Johannes EM Mosig, Shikib Mehri, and Thomas Kober. STAR: A Schema-Guided Dialog Dataset for Transfer Learning. arXiv preprint arXiv:2010.11853, 2020.
[10] Derek Chen, Howard Chen, Yi Yang, Alexander Lin, and Zhou Yu. Action-Based Conversations Dataset: A Corpus for Building More In-Depth Task-Oriented Dialogue Systems. In Proc. NAACL-HLT, pp. 3002-3017, 2021.
[11] Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, and Yi Zhang. Multi-task pre-training for plug-and-play task-oriented dialogue system. In Proc. ACL, pp. 4661-4676, 2022.
[12] Shikib Mehri, Yasemin Altun, and Maxine Eskenazi. LAD: Language Models as Data for Zero-Shot Dialog. In Proc. SIGDIAL, pp. 595-604, 2022.
[13] Jeffrey Zhao, Yuan Cao, Raghav Gupta, Harrison Lee, Abhinav Rastogi, Mingqiu Wang, Hagen Soltau, Izhak Shafran, and Yonghui Wu. AnyTOD: A programmable task-oriented dialog system. In Proc. EMNLP, pp. 1618916204, 2023.
[14] Qi Zhu, Kaili Huang, Zheng Zhang, Xiaoyan Zhu, and Minlie Huang. CrossWOZ: A large-scale Chinese crossdomain task-oriented dialogue dataset. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 281-295, 2020.
[15] Jun Quan, Shian Zhang, Qian Cao, Zizhong Li, and Deyi Xiong. RiSAWOZ: A large-scale multi-domain Wizard-of$\mathrm{Oz}$ dataset with rich semantic annotations for task-oriented dialogue modeling. In Proc. EMNLP, pp. 930-940, 2020.
[16] Yinpei Dai, Wanwei He, Bowen Li, Yuchuan Wu, Zheng Cao, Zhongqi An, Jian Sun, and Yongbin Li. CGoDial: A large-scale benchmark for Chinese goal-oriented dialog evaluation. In Proc. EMNLP, pp. 4097-4111, 2022.
[17] 大橋厚元, 平井龍, 飯塚慎也, 東中竜一郎. JMultiWOZ:日本語タスク指向型対話データセットの構築. 言語処理学会第 29 回年次大会, 2023.
[18] Namo Bang, Jeehyun Lee, and Myoung-Wan Koo. TaskOptimized Adapters for an End-to-End Task-Oriented Dialogue System. In Findings of ACL 2023, pp. 7355-7369.
[19] Vojtěch Hudeček and Ondrej Dusek. Are Large Language Models All You Need for Task-Oriented Dialogue? In Proc. SIGDIAL, pp. 216-228, 2023.
[20] J. F. Kelley. An iterative design methodology for userfriendly natural language office information applications. ACM Trans. Inf. Syst., Vol. 2, pp. 26-41, 1984.
[21] Xiaoxue Zang, Abhinav Rastogi, Srinivas Sunkara, Raghav Gupta, Jianguo Zhang, and Jindong Chen. MultiWOZ 2.2 : A dialogue dataset with additional annotation corrections and state tracking baselines. In Proc. NLP4ConvAI, pp. 109-117, 2020.
[22] Gonçalo Raposo, Luisa Coheur, and Bruno Martins. Prompting, retrieval, training: An exploration of different approaches for task-oriented dialogue generation. In Proceedings of the 24th Meeting of the Special Interest Group on Discourse and Dialogue, pp. 400-412, 2023.
[23] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, pp. 1-67, 2020.
[24] Shinya Iizuka, Shota Mochizuka, Atsumoto Ohashi, Sanae Yamashita, Ao Guo, and Ryuichiro Higashinaka. Clarifying the Dialogue-Level Performance of GPT-3.5 and GPT-4 in Task-Oriented and Non-Task-Oriented Dialogue Systems. In Proc. Al-HRI, 2023.
[25] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In Proc. ICLR, 2019.
#
A Appendix
## A. 1 T5 モデルの fine-tuning 詳細
T5-base および T5-large の学習では,バッチサイズを 32 に設定し, 5 エポック学習した. AdamW [25] オプティマイザを使用し,学習率は初期值 5e-5 からステップ数に応じて線形減衰させた。評価では最終ステップにおけるチェックポイントを使用し,DST 及び RG の推論では,いずれも greedy search を採用した. 図 3 に,T5 の学習に使用された入出力系列の具体例を示す.
(a) DST における入出力データ
\begin{abstract}
入力系列対話から応答を生成:<顧客>東京へ旅行に行くのですが、Wi-Fiが無料で利用できて、レストラン併設の宿泊施設はありますか?<店員>WiFi無料でレストラン併設の宿泊施設は東京には 18 件あります<顧客>安めのところもありますか?<店員>值段が安めの条件を追加すると、残念ながら 1 件もヒットしません。<顧客>そうですか。じゃあWi-Fiはなくてもいいです。く信念状態> general active_domain hotel, general city 東京, hotel pricerange 安め, hotel withrestaurant 有り<検索結果> total 1, candidate [ビジネスホテル山百合], selected [city 東京, name ビジネスホテル山百合, genre ビジネスホテル, area 台東区, pricerange 安め, station [上野駅, 京成上野駅], wifi 無し, parking 無し, withrestaurant 有り, phone 0338317759, address 東京都...
出力系列值段が安めでレストラン併設となれば、ビジネスホテル山百合、これ一択です。
\end{abstract}
(b) RGにおける入出力データ
図 3 T5 のDST タスクおよび RG タスクの学習に用いられた入出力データ具体例. 入力系列の先頭には,DST と RG のいずれのタスクであるかを示す prefix が付与されている。また,入力系列の各要素には,話者を示す prefix や,信念状態,DB 検索結果を示す prefix が付与されている.
## A. 2 プロンプトの具体例
図 4 に,実験で LLM に入力された zero-shot 設定でのプロンプトを示す.
対話文脈から判断できる,レストランに関するスロットと值ペア(信念状態)を抽出してください,
信念状態は半角スペースとカンマを使用し,`スロット 1 值1,スロット2 値2`という形式で抽出してください.抽出するべきスロットは以下の通りです:
- "name" レストランの名前
- "genre" レストランのジャンル
- "area"レストランのエリア. " 区"や" 市" などの地区名.
- "pricerange" レストランの価格帯. "安め/普通/高め" のいずれか.
- "station"レストランの最寄り駅
- "wifi"レストランのWi-Fiの有無。"有り(無料)/有り(有料)/無し" のいずれか.
- "parking"レストランの駐車場の有無。"有り(無料)/有り(有料)/無し" のいずれか.
- "people"レストランの予約人数
- "day"レストランの予約日
- "time"レストランの予約時間
上記以外の情報は抽出しないでください。
また,文脈中で言及されなかったスロットの値も抽出しないでください.
(a) 飲食店ドメインにおける DST 用プロンプト
あなたは顧客の要望に沿ったレストランを探し出し,予約をするアシスタントです。 データベースを用い,エリア,ジャンル,価格帯等からレストランを検索・予約することができます。 レストランを見つけたら,その名前,住所,電話番号,その他必要な情報など,顧客から尋ねられた情報を提供してください.
予約が成功したら, その予約番号(ref)を提供してください
(b) 飲食店ドメインにおける RG 用プロンプト
図 4 Zero-shot 設定での LLM の DST タスクおよびRG タスクに用いられた,飲食店ドメイン用のプロンプト例 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B10-6.pdf | # 敵対的発言を取り入れた議論による言語モデルの 学習強化と推論力の向上
Mengsay Loem ${ }^{1}$ 金子正弘 ${ }^{2,1}$ 岡崎直観 ${ }^{1}$
1 東京工業大学 ${ }^{2}$ MBZUAI
mengsay.loem@nlp.c.titech.ac.jp masahiro.kaneko@mbzuai.ac.ae
okazaki@c.titech.ac.jp
## 概要
大規模言語モデル(Large Language Model; LLM) は他モデルや人間との議論を通じて問題に対する理解を深めることができる。議論はモデルの学習段階においても論理的・批判的思考力や説明力の向上に寄与すると考えられるが、従来研究では議論を推論時にのみ活用していた。本研究では、学習段階において学習モデルの出力が不正解の場合には正解に、正解の場合には不正解に誘導する敵対的議論を行う「反論モデル」によるフレームワークを提案する。提案手法では議論を用いた追加学習を行い、学習モデルのパラメータを更新する。議論を行わない手法、推論段階に議論を適用する手法、推論過程を言語化する Chain-of-Thought (CoT) と比較して、提案手法は算術、常識推論、質問応答タスクにおいて高い性能を示した。
## 1 はじめに
LLM は様々なタスクにおいて優れた言語理解・生成能力を発揮している $[1,2]$ 。LLM の大きな進展の一つとして、他モデルや人間との議論を通じて、複雑な問題解決や柔軟な思考が可能となったことが挙げられる。例えば、LLM は対話を通じて、相手の反論に対して予測の理由を説明し、相手を説得することや自分の間違いを正すことができる [3]。この議論能力は、特に複雑な推論や批判的思考を必要とするタスクにおいて、LLM の性能を向上させる [4]。
最新の研究では、推論時における議論が LLM の性能を大幅に向上させることが報告されている $[5,6,7,8,9]$ 。これらの推論段階での議論は、問題に対するモデルの予測を直接的に洗練させることを可能にし、様々なタスクの性能を向上させた。一方で、その効果は主に、議論を伴わない通常の学習に
図 1: 反論モデルと議論することで学習モデルのパラメータを更新する提案手法の概要図。
よって身につけられた LLM の能力を引き出すことで得られている。つまり、LLM は議論をしながら学習(パラメータ更新)をした訳ではないので、LLM の学習と推論の状況に乘離があり、「推論段階の議論だけでは説明力や批判的思考力を最大限に高めきれていないのではないか?」という疑問が生じる。
学習段階で議論を能動的に取り入れることはまだ開拓されておらず、研究が少ない。例えば、学習モデルと評価モデルが学習段階に導入され、評価モデルが学習モデルの出力を評価し正解に誘導する手法が提案されている $[10,11]$ 。しかし、この手法では議論の対象が学習モデルの誤った予測へのフィードバックや修正に限定されている。学習モデルが正しい理解や論理に基づいて正答しているかを試す批判的検証が行われていないため、正解やフィードバックの丸暗記に基づいた応答を行っている可能性がある。教育学における敵対的指導法では、人間は批判的な過程を通じて理解を深めると報告されてい
る $[12,13]$ 。同様に、正解時に間違えさせる誘導に対して学習モデルが批判的に対処し、不正解時は間違いに対する批判を受容する過程が LLM の問題解決力の向上に繋がるのではないかと考える。
本研究では、予測の正解と不正解に応じて補助的な発言または敵対的な発言をする「反論モデル」と議論し、タスクの習得を目指す「学習モデル」のパラメータを更新することで、学習モデルの議論能力を直接的に鍛える枠組みを提案する。図 1 は提案手法の概要を示している。反論モデルは学習モデルの予測に対して一貫した反論を行い、問題への理解を試す。学習モデルは反論モデルを説得する必要があり、学習負荷が高いため、問題解決への理解がより深まり、推論時のタスク性能が改善する。さらに、推論段階において議論や CoT などの手法を適用すると、学習段階の議論により予測過程の説明力が磨かれているため、議論学習を行っていないモデルよりもさらにタスク性能が向上すると考えられる。
実験では、Flan-T5 と GPT-3.5をそれぞれ、学習モデルと反論モデルとして採用した。算術問題 (GSM8K)、常識推論 (CommonsenseQA)、知識に関する質問応答 (MMLU) タスクにおいて、提案手法は議論を行わない学習手法、CoT、正解のみを使う既存手法よりも高い性能を示した。さらに、提案手法が CoT の言語化を顕著に改善することが自動評価と人手評価の両方から明らかになった。ゆえに、提案手法は議論に特化した能力だけでなく、汎用的な論理的思考力や説明力を高めると考えている。
## 2 提案手法
提案手法による学習は、準備フェーズと議論フェーズの 2 つの主要フェーズから構成される。学習モデルと反論モデルの 2 つの事前学習されたモデルを活用し、補助的な発言と敵対的発言の両方を含む能動的な議論を通じ、学習モデルのファインチューニングを行う。アルゴリズム 1 は提案手法による学習を示している。学習モデルは、タスクや問題に対する予測を生成し、反論モデルとの議論を通じてパラメータを更新し、タスクを解く役割を担う。一方、反論モデルは学習モデルの予測が誤っている場合は補助的、予測が正しい場合は敵対的な発言を提示し、正しい過程に基づいた問題の理解と反対意見に対する柔軟性の獲得を促し、学習モデルの推論能力を強化する。学習モデルとは異なり、反論モデルのパラメータは更新しない。ゆえに、学習モ
デルよりも規模の大きい LLM を反論モデルとして使うことができる。
準備フェーズ学習モデルにタスク・ドメインに関する基本的な理解を与えるために、学習データセットのサブセットを使い、議論を伴わない通常のファインチューニングを行う。これにより、学習モデルは対象タスクを議論するための最低限の知識や能力を身につけると期待される。
議論フェーズ学習データセットの残りのサブセットを使用し、反論モデルとの能動的かつ批判的な対話を通じて、学習モデルの議論と説明(言語化) の能力を向上させる。このフェーズは複数のラウンドで行われ、学習モデルは与えられた問題に対する予測を生成し、反論モデルは学習モデルの解答に応じて補助的または敵対的な発言を行い、そのやり取りに基づいて学習モデルはパラメータを更新する。各ラウンドは以下のステップに従って進められる。
1. 解答の生成: 学習モデルは与えられた問題に対する解答を生成し、議論のための準備を行う。
2. 反論モデルの発言: 学習モデルの解答に基づいて、反論モデルは補助的または敵対的な立場で発言を行う。
・学習モデルの解答が不正解と判断された場合、補助的な発言で正解への道筋を示す。
・学習モデルの解答が正解と判断された場
表 1: 提案手法とべースライン手法の算数 (GSM8K)、常識 (CommonsenseQA)、知識 (MMLU) タスクにおける正解率の比較。
合、学習モデルを惑わすような敵対的な発言を行い、学習モデルの正しい理解や自信を試す。
3. 議論ありのパラメータ更新: 反論モデルの発言、学習モデルの発言、学習データの正解データを使い、学習モデルのパラメータを更新する。これにより、議論を踏まえた学習が行われる。
4. 議論なしのパラメータ更新: 反論モデルとの議論を複数ラウンド繰り返した後、学習モデルは議論無しで予測を行い、正解データのみを用いてパラメータを更新する。これにより学習モデルは議論によって得られた能力を解答のみの予測に活用できることを学び、議論を伴わない推論においても性能改善を狙う。
推論段階学習モデルは反論モデルと議論を行わずに出力を生成し、学習時の議論フェーズで獲得した推論能力を活用しながらタスクを解く。
## 3 実験
## 3.1 データセット
本研究では、提案手法の評価に以下の 3 つのデー タセットを使用した。
GSM8K データセット [14] は、8.5k 事例の算術問題から構成され、その中で $6.5 \mathrm{k}$ を学習用、 $1 \mathrm{k}$ を検証用、 $1 \mathrm{k}$ をテスト用として用いた。
CommonsenseQA データセット [15] は、12k 事例の多肢選択問題を含む。公式分割により、9.7kを学習用、 $1.2 \mathrm{k}$ を検証用、 $1.1 \mathrm{k}$ をテスト用に用いた1)。
MMLU データセット [16] は数学、歴史、科学などのタスクを含み、 $100 \mathrm{k}$ 事例の学習、 $1.5 \mathrm{k}$ の検証、 $14 \mathrm{k}$ のテスト事例から構成される。
## 3.2 モデル
本実験では、学習モデルとして Flan-T5-Large (780M)と Flan-T5-XL(3B)[17] を採用した。反論モデルには GPT-3.5 (gpt-3.5-turbo)を使用し、OpenAI $\mathrm{API}^{2)}$ をへてアクセスした。学習モデルには、第 2 節で詳説した準備フェーズと議論フェーズの学習を実施した。準備フェーズでは、各データセットの学習セットの $10 \%$ を利用した。議論フェーズでは、残りの学習セットを用い、学習モデルと反論モデル間で 3 ラウンドの議論を実施した。Flan-T5-Large に関しては、全パラメータを学習時に更新した。一方、Flan-T5-XL では計算資源の制約から、モデルに微小なパラメータを追加しそれだけを更新する LoRA [18]により、学習を効率化した。実験設定の詳細は付録 A に記載した。
## 3.3 比較手法
提案手法と比較するため、以下の 3 つのベースラインを用いた。
ゼロショット CoT は予測までの過程を出力させるプロンプト $[19,20]$ を使用し、モデルの本来の推論能力を評価する。この CoT との比較により、提案手法の言語化能力の向上を見積もることができる。
議論なし学習は標準的なファインチューニング手法であり、学習データの正解のみを用いてモデルを学習する。このベースラインとの比較により学習段階での議論の重要性が明らかとなる。
補助フィードバックは既存研究 [11] に相当し、提案手法と同様に反論モデルからの補助によりモデルを学習するが、敵対的な発言は行わない。この比較により、予測の正誤の有無にかかわらず、学習段階の全事例において学習モデルに批判的な負荷をかけることが性能改善につながるか、検証する。
## 3.4 結果
表 1 に示される結果から、全てのデータセットとモデルにおいて提案手法の有効性が実証された。GSM8K データセットでは、提案手法が Flan-T5-Large の性能を顕著に改善し、18.50\%の正解率を達成した。これは議論を伴わない標準的なつァインチューニングによる $14.63 \%$ の正解率と比較して、3.87 ポイントの顕著な向上を示している。同様に、Flan-T5-XLでは、議論を伴わない学習による
表 2: 各手法による CoT の質を ROUGE スコア(R-1, R-2, R-L)を用いて評価した結果。
表 3: 提案手法による学習前後での学習モデルと反論モデルの性能変化。評価は人手による 5 段階評価で行われた。
$14.21 \%$ の正解率から、提案手法により $18.89 \%$ まで改善され、学習段階における議論の導入の効果が明らかになった。
また、敵対的発言を取り入れた提案手法は、補助的な発言のみを使う既存手法と比べてさらに性能が向上している。GSM8K データセットにおいて、提案手法を使用した Flan-T5-Large は $18.50 \%$ の正解率を達成し、補助的発言のみを使用した場合の $16.60 \%$ に比べ 1.9 ポイントの改善を示した。この傾向は CommonsenseQA と MMLU のデータセットにおいても一貫しており、敵対的議論がもたらす効果の頑健性が実証された。なお、議論における反論モデルの補助的と敵対的な発言の適切さの評価を、付録 B に記載した。
## 4 分析
## 4.1 言語化能力の向上
本節では、予測に至る思考過程を適切に記述する説明力の改善が議論以外にも汎用的な波及効果をもたらすか検証するため、学習されたモデルのゼロショット CoT(思考過程)を評価する。具体的には、答えに至る思考過程の正解(参照思考過程)を収録している GSM8K テストセットを使用し、各手法により学習されたモデルに CoTを適用し、自動評価と人手評価で生成された思考過程の質を比較する。
表 2 は、生成された思考過程と参照思考過程との間の ROUGE [21] スコアを示している。提案手法が生成する思考過程は事前学習のみ、および議論を伴わない学習のモデルを上回った。これは、提案手法により汎用的な思考・説明力が向上し、CoT の生成がより正確になることを示している。
表 3 は、各モデルの生成内容を人手で 5 段階評価
表 4: GSM8K データセットにおける推論時の議論による手法の性能の比較。
した結果である。提案手法により、学習モデルの議論能力が顕著に向上することが明らかとなった。評価の詳細については、付録 C を参照のこと。
## 4.2 推論時の議論による性能の向上
最後に、提案手法で学習されたモデルの推論時の議論能力に焦点を当てる。
表 4 の上段にモデルが単独で推論する際の正解率、中段にモデルが自分自身との議論を通じて推論した際の正解率、下段に GPT-3.5 との議論をした場合の推論の正解率を示した。上段と中段の結果から、学習モデルが単独で推論をする場合よりも、自分自身と議論するだけで正解率が向上することが分かる。これは、推論時の議論がタスクの性能を向上させていることを示唆している。
なお、提案手法で学習された学習モデルがGPT-3.5 と議論を行いながら推論すると、 $60.80 \%$ の正解率が得られる。この結果は、提案手法の学習が推論時の議論能力をどのように強化するかを示し、高度なモデルとの議論や連携の可能性を示唆している。ちなみに、GPT-3.5 単独の正解率が $62.32 \%$ あるるのに比べ、提案手法で学習されたモデルを用いた後の性能は $64.90 \%$ まで更に向上している。
## 5 おわりに
本研究では、LLM の推論能力を向上させる能動的な学習アプローチとして、モデル間の対話的な議論を通じて、補助的と敵対的な発言を活用する手法を提案した。実験により、推論段階における議論を伴う・伴わないシナリオの両方で推論性能の改善が確認された。提案手法により、モデルの CoT 言語化能力が向上し、学習後の汎用的な言語化能力が強化されていることが示された。
## 謝辞
本研究成果は、国立研究開発法人情報通信研究機
構(NICT)の委託研究(22501)により得られたものです。
## 参考文献
[1] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901, 2020.
[2] OpenAI. Gpt-4 technical report. arXiv:2303.08774, 2023.
[3] Masahiro Kaneko, Graham Neubig, and Naoaki Okazaki. Solving nlp problems through human-system collaboration: A discussion-based approach. arXiv:2305.11789, 2023.
[4] Yashar Talebirad and Amirhossein Nadiri. Multi-agent collaboration: Harnessing the power of intelligent $1 \mathrm{~lm}$ agents. arXiv:2306.03314, 2023.
[5] Tian Liang, Zhiwei He, Wenxiang Jiao, Xing Wang, Yan Wang, Rui Wang, Yujiu Yang, Zhaopeng Tu, and Shuming Shi. Encouraging divergent thinking in large language models through multi-agent debate. arXiv:2305.19118, 2023.
[6] Kai Xiong, Xiao Ding, Yixin Cao, Ting Liu, and Bing Qin. Examining inter-consistency of large language models collaboration: An in-depth analysis via debate. arXiv:2305.11595, 2023.
[7] Justin Chih-Yao Chen, Swarnadeep Saha, and Mohit Bansal. Reconcile: Round-table conference improves reasoning via consensus among diverse llms. arXiv:2309.13007, 2023.
[8] Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Shashank Gupta, Bodhisattwa Prasad Majumder, Katherine Hermann, Sean Welleck, Amir Yazdanbakhsh, and Peter Clark. Self-refine: Iterative refinement with self-feedback. arXiv:2303.17651, 2023.
[9] Yilun Du, Shuang Li, Antonio Torralba, Joshua B Tenenbaum, and Igor Mordatch. Improving factuality and reasoning in language models through multiagent debate. arXiv:2305.14325, 2023.
[10] Sean Welleck, Ximing Lu, Peter West, Faeze Brahman, Tianxiao Shen, Daniel Khashabi, and Yejin Choi. Generating sequences by learning to self-correct. arXiv:2211.00053, 2022.
[11] Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, and Boi Faltings.
Refiner: Reasoning feedback on intermediate representations. arXiv:2304.01904, 2023.
[12] Jonathan Osborne. Arguing to learn in science: the role of collaborative, critical discourse. Science, Vol. 328,5977, pp. 463-466, 2010.
[13] Ben Kilby. Dialogic pedagogies: Defining and analyzing four types of dialogue in education. Analytic Teaching and Philosophical Praxis, Vol. 41, No. 2, p. 106-121, Dec. 2021.
[14] Karl Cobbe, Vineet Kosaraju, Mohammad Bavarian, Mark Chen, Heewoo Jun, Lukasz Kaiser, Matthias Plappert, Jerry Tworek, Jacob Hilton, Reiichiro Nakano, Christopher Hesse, and John Schulman. Training verifiers to solve math word problems. arXiv:2110.14168, 2021.
[15] Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. Commonsenseqa: A question answering challenge targeting commonsense knowledge. arXiv:1811.00937, 2019.
[16] Dan Hendrycks, Collin Burns, Steven Basart, Andy Zou, Mantas Mazeika, Dawn Song, and Jacob Steinhardt. Measuring massive multitask language understanding. In International Conference on Learning Representations, 2021.
[17] Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Alex Castro-Ros, Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, and Jason Wei. Scaling instruction-finetuned language models. arXiv:2210.11416, 2022.
[18] Edward J. Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, and Weizhu Chen. Lora: Low-rank adaptation of large language models. arXiv:2106.09685, 2021.
[19] Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, and Denny Zhou. Chain-of-thought prompting elicits reasoning in large language models. arXiv:2201.11903, 2023.
[20] Takeshi Kojima, Shixiang (Shane) Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. Large language models are zero-shot reasoners. In S. Koyejo, S. Mohamed, A. Agarwal, D. Belgrave, K. Cho, and A. Oh, editors, Advances in Neural Information Processing Systems, Vol. 35, pp. 22199-22213. Curran Associates, Inc., 2022.
[21] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
[22] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019.
表 5 : 提案手法の議論における反論モデルの補助的と敵対的な発言の適切さに関する人手評価。
## A 実験設定の詳細
本研究では、 Huggingface Transformers ${ }^{3}$ を利用した。学習は 8 台の NVIDIA A100 GPU(40GiB) で行った。公平で一貫性のある評価を保証するために、提案手法と全ての比較手法において、パラメータ更新ステップの総数を同じに設定した。最適化手法として、AdamW [22]を、デフォルトのハイパーパラメータで使用した。全ての比較手法で、バッチサイズは 1 で、勾配累積を 1 に設定した。Flan-T5-XLでは、 LoRA ${ }^{4}$ の設定として、alpha $=32 、$ rank $=8$ 、 target modules: Query、Key、Value、出力層を含む自己注意の線形射影、を採用した。
## B 反論モデルの発言に対する評価
反論モデルの発言を評価するために、 5 人の大学生に GSM8K データセットの例からランダムに抽出したサンプルを評価させた。各評価者には、学習モデルの回答、反論モデルの発言、それに対応する質問と正解が提示された。評価プロセスには以下の 2 つを設けた。
1. 発言の分類: 評価者は、学習モデルの解答と質問のペアの文脈に基づいて、反論モデルの各発言を補助的か敵対的かに分類する。
2. 適切さの評価: 評価者は適切さを評価した。評価者は、発言の適切さを 5 段階で評価した。評価の尺度は、 1 (期待との整合性なし) から 5 (期待との完全な整合性) までであり、反論モデルの発言の妥当性を反映する。評価の基準は以下である。
- 1 - No Alignment: The response does not align with the expectation.
- 2 - Minimal Alignment: The response shows minimal alignment with the expectation.
- 3 - Moderate Alignment: The response is moderately aligned with the expectation.
- 4 - Strong Alignment: The response aligns strongly with the expectation, with minor deviations.
- 5 - Complete Alignment: The response fully aligns with the expectation.
表 5 は、反論モデルの発言に対する人手評価の結果を示す。精度の面では、補助的な発言は $100 \%$ の精度で識別され、これらの回答の明瞭性と有効性が高いことが示された。それに対し、敵対的な発言は $88 \%$ と低い精度であった。これは、敵対的な内容を明確に定義することが難しく、評価者によって解釈が異なることが多いためと考えられる。この点は、提案手法の中で敵対的な発言を生成する際に、さらなる改良が必要であることを示唆している。適切さの評価では、支持的な発言は平均 3.40 点であったが、敵対的な発言は 3.10 点とやや低かった。どちらのスコアもスケールの中間点付近を推移していることから、発言は一般的に適切であり、学習プロセスにおける意図された使用方法と一致していることが示唆される。しかし、これらの結果は、両タイプの発言の有効性と影響を高めるための改善点も指摘している。
## C モデル間の議論の人手評価
4.1 節で述べたように、提案手法を適用した後の議論能力を総合的に評価するために、CoT の言語化について人手による評価を行った。 5 人の大学生が以下の基準で議論のクオリティを評価した。
-1 - Poor: The discussion significantly deviates from expected standards, showing a lack of relevance, coherence, or constructive feedback.
- 2 - Fair: There is some alignment with the gold standard; however, notable deficiencies or inaccuracies are present.
- 3 - Average: The discussion is reasonably relevant and effective, although minor errors or lapses may be present.
- 4 - Good: There is a strong alignment with the gold standard, despite the potential presence of minor areas for improvement.
- 5 - Excellent: The discussion is highly aligned with the gold standard, demonstrating relevance, accuracy, and overall effectiveness.
4) https://github.com/huggingface/peft | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B11-1.pdf | # 雑談応答生成モデルによる矛盾応答の大規模収集
佐藤志貴 1 赤間怜奈 1,2 鈴木潤 1,2 乾健太郎 $3,1,2$
1 東北大学 2 理化学研究所 ${ }^{3}$ MBZUAI
\{shiki.sato.d1, akama, jun.suzuki\}@tohoku.ac.jp kentaro.inui@mbzuai.ac.ae
## 概要
雑談応答生成モデルが生成した矛盾応答データの不足は,矛盾応答の抑制に向けた取り組みの障害となっている. 本研究では, 多様なモデルの矛盾応答からなる大規模データセットを構築する。様々な観点からデータセットを分析し,モデルによる矛盾応答の特徵を明らかにするとともに,構築したデータセットを学習データとして用いることでデータ駆動型の矛盾抑制の有効性が向上することを確認する。
## 1 はじめに
雑談応答生成モデル (Response Generation Model, RGM) による誤りのなかでも,表 1 のように過去の自身の発話と矛盾する応答,いわゆる矛盾応答は,対話の円滑な進行やユーザとの信頼関係の構築を妨げる [1] ため,ユーザと信頼関係を構築可能なシステムを実現する上で解決すべき重要な課題である.
矛盾応答の抑制において,大規模かつ高品質な RGM の矛盾応答データの存在は 2 つの点で重要となる. まず,大規模矛盾応答データを分析することで RGM の矛盾応答の特徴が明らかになれば,より効果的な矛盾抑制手法を開発できる可能性がある. また,大規模矛盾応答データを学習に用いることで,近年主流となっているデータ駆動型の矛盾抑制 $[1,2,3,4]$ の性能が向上すると考えられる. しかし, Nie らが収集した DECODE データセット [1] など,人手で書かれた矛盾応答のデータセットは存在する一方,RGM が生成した矛盾応答を大規模収集した研究はこれまで存在しなかった. 人手で書かれた矛盾データは, 3.1 節で示すように,RGMによる矛盾とは異なる特徴を有しており, 分析や学習に用いるデータとしての有効性に限界がある.
そこで我々は,実際に RGM が生成した矛盾応答の大規模収集に取り組んできた [5]. しかし,これまでのデータセットに収録した矛盾応答の事例数は $2.5 \mathrm{k}$ と, データ駆動型システムの安定した学習に必表 1 収集した RGM の矛盾,無矛盾応答例。A,B は話者, CG と B1 はRGMを指す. 発話 $u_{q}$ に対する RGM 応答の, 先行発話 $u_{r}$ との一貫性に関する 3 人のワーカの判断は $\mathrm{C}, \mathrm{Nで}$ 表され,それぞれ矛盾,無矛盾を指す。発話 $u_{r}$ は $u_{q}$ に $d_{u_{r}}$ 発話先行している. 太字は矛盾箇所を示す.
対話文脈
A: I hurt my toe doing ballet. $-u_{r}$
B: Oh I hope you get better. Does is hurt a lot?
A: It hurts pretty bad, but it will heal. [. . .]
B: [. . .] Do you do ballet practice often? - $u_{q}$
話者 $\mathrm{A}$ としての $u_{q}$ に対する RGM 応答
CG: I don't do ballet myself, I was just watching a performance. [. . . ] $-[\mathrm{C}, \mathrm{C}, \mathrm{C}]$
BL: Yes, I do ballet every day. [. . . ] - $[\mathrm{N}, \mathrm{N}, \mathrm{N}]$
要な事例数の目安の一つ,10k [6] を大きく下回り,学習データとしての利用に際してデータ駆動型の手法の効果を十分引き出せない可能性があった.
本研究では,多様な RGM の矛盾応答 10503 個を収録した大規模データセットを構築する. さらに, データセットを分析しRGM の矛盾応答の特徴を明らかにする. 最後に, 本データセットで学習した矛盾検出器が高い精度で RGM の矛盾を検出できることを確認し,データ駆動型の矛盾抑制における有用性を示す。本データセットは公開予定である。
## 2 大規模データセットの構築
我々の過去の応答収集 [5] と類似した方法で, RGM の矛盾応答および無矛盾応答を大規模に収集した. 構築の詳細は付録 $\mathrm{A}$ に示す。
## 2.1 各事例の構成
各事例は,表 1 のように対話文脈とそれに対する RGM の応答,応答の一貫性を示すラベルからなる。
対話文脈. 過去の我々の調査 [5]により, 先行する発話 ( $u_{r}$ とする) に関連するような質問である Follow-up 質問 (FQ) が RGM から矛盾応答を誘発す
表 2 構築したデータセットの基本統計情報. 括弧内の値は,対話文脈の種類数を表す。
る主要な発話であることが判明している。そこで今回のデータセット構築でも, 過去の収集と同様,先行発話 $u_{r}$ に対する $\mathrm{FQ}$ を含む発話 $u_{q}$ が末尾に来る対話文脈を Multi-session Chat (MSC) データセット [7] から収集した. なお, $u_{r}$ と $u_{q}$ は $d_{u_{r}}$ 発話離れていることとする. 表 1 は $d_{u_{r}}=3$ の例となる.
RGM の応答. 各対話文脈に対し, 既に社会で広く活用されている ChatGPT (CG, https://openai. com/chatgpt) に加え,高性能な RGM である Plato-2 (P2), Plato-XL (PX) [8, 9], Blenderbot1-3B (B1) [10], Blenderbot2-3B (B2) [7, 11], Blenderbot3-3B (B3) [12], Blenderbot3-30B (BL), Opt-66B (O6) [13] に応答を生成させることで,多様な RGM の応答を収集した。
一貫性に対するラベル. 各応答が先行発話 $u_{r}$ と矛盾するかを,3人ずつのクラウドワーカに評価させ, 2 人以上が矛盾と判断した場合は矛盾応答,全員が無矛盾と判断した場合は無矛盾応答とした.
## 2.2 統計情報
表 2 にデータセットの統計情報を示す. 事前調査で $d_{u_{r}}$ が 3 より大きいと矛盾発生頻度が低くなると判明しているため, $d_{u_{r}}$ の最大値を 5 と設定した.
## 3 分析データとしての有用性の検証
RGM による矛盾応答の特徴を分析することは, より有効性の高い矛盾抑制手法を開発する上で不可久である. 本研究で大規模データセットを構築したことにより,こうした分析が可能となる. 3.1 節では RGM 矛盾応答自体の特徴に関する分析結果を, 3.2 節では RGM が特に矛盾応答を生成する傾向にある対話文脈の特徴に関する分析結果を報告する。
## 3.1 矛盾応答自体の分析
我々の分析により,RGMに特有の矛盾応答とし $\tau$, 発話内矛盾に起因する矛盾応答と, 曖昧性のある表現を含む矛盾応答が特定された。
発話内矛盾に起因する矛盾応答. RGM によって生成された矛盾応答を観察したところ “I like表 3 曖昧性のある表現を含む Plato-2 の矛盾応答の例.太字の “interview” が今日のものを指していると解釈するかによって一貫性に関する判断が異なると考えられる。
対話文脈
A: I had a promising interview today! B: Oh excellent! How did it go, what made it so excellent?話者 A としての RGM 応答
P2: i think i did well because they called me back to set up an interview.
tennis, but I dislike tennis.”のように,応答内に相反する情報を組み込むことで,そのうちのどちらかの情報が対話文脈と矛盾するという事例が散見された. 具体的には,本データセットの各 RGM の矛盾応答を無作為に 50 個ずつ取り出し確認したところ, ChatGPT を除く 7 個の RGM で発話内矛盾に起因する矛盾応答が 1 個以上観測された。一方,人手で書かれた矛盾応答を DECODE データセットから 50 個無作為抽出し調べたが,発話内矛盾に由来する矛盾応答は確認されなかった. 以上から,発話内矛盾に起因する矛盾は RGM 応答で特に頻出するといえる.
曖昧性のある表現を含む矛盾応答. RGM の応答と, DECODE データセット中の人手応答の間には,矛盾の有無に対する人手評価の傾向において差異があることが確認された. 本研究と $\mathrm{Nie}$ らのデー タセット構築 [1]では, 矛盾ラベルを付与するワー カの選定方法やラベルの付与方法は同様である. しかし, 3 人中 1 人以上のワーカが矛盾と判断した事例からなる部分集合の中で,他の 2 人も矛盾であると同意した割合に有意な差が観察された.この割合は,人手応答では $78.4 \%, R G M$ の応答では $30.4 \%$ だった. この異なりは,RGMが一貫性に関して曖昧な表現を含む応答を生成する傾向があることに起因している可能性がある.表 3.1 に曖昧な表現を含む応答の例を示す. 曖昧性を含む応答に対する矛盾の有無の判断は,個々のワーカが一貫性に関してどのように解釈するかによって異なる.こうした応答は,たとえ一部のワーカには矛盾を感じさせないとしても,ひとたび実際のユーザに矛盾と認識されてしまうと,対話の質を著しく損なう可能性があり, これらの矛盾に対処することも極めて重要である。
## 3.2 矛盾応答を誘発する対話文脈の分析
多様な RGM から矛盾応答を誘発する対話文脈の特徴の特定は, より効果的な矛盾抑制のための技術
表 4 相手発話中の情報 (太字部分) を自身の情報として応答に取り入れたことによる Plato-2 の矛盾応答の例.
## 対話文脈
A: Have you taken any new pictures?
B: I managed to get out at the weekend and get loads of shots in the snow we had. [. . .]
A: Oh wow you had snow!? We just had rain all weekend :) [ . . ] Did you have a nice chilled weekend? [. . .]
話者 B としての RGM 応答
P2: it was a good weekend here, we got to enjoy the cold rain!
の開発において有用である可能性がある. 我々のデータセットでは,各対話文脈 8 個もの多様な RGM の応答が収集されており,この調査に適している.
解釈性が高い分析観点として対話行為ラベルと使用語彙に着目しつつ,統計的手法 ${ }^{1}$ を用いて対話文脈を分析したところ,RGM の矛盾応答を誘発しゃすい対話文脈の特徴が 3 つ特定された。
対話行為分類に基づく特徵. データセット中の各対話文脈の発話 $u_{q}$ に対話行為ラベルを付与したところ, 2) "Declarative Yes-No-Questions" および “Statement-non-opinion" が $u_{q}$ に付与された対話文脈はより多くの RGM から矛盾応答を誘発する傾向にあることが確認された. 前者のラベルについて,該当する 193 個の対話文脈において矛盾応答を生成した RGM の個数の平均が 2.77 だった一方, 該当しない 4084 個の対話文脈における平均は 2.41 だった. この差は, 過去の発話で自身が提供した情報の繰り返しを相手から求められていることを理解した上で一貫した情報を繰り返す能力が RGM に欠けていることが原因で発生している可能性がある. 後者のラベルについて,該当する 2118 個の対話文脈における平均は 2.49 だった一方,該当しない 2159 個の対話文脈における平均は 2.36 だった. この差の原因として,表 4 の例のように,RGM が対話文脈中の自身の発話と相手発話の区別に失敗し, 相手発話 $u_{q}$中の情報を自身に関するものとして認識し応答することで矛盾する場合があることが考えられる。
1)本データセットには,対話文脈ごとに 8 個の RGM による計 8 個の応答が収録されており,各対話文脈について 8 個のうち矛盾応答を生成した RGM の個数が算出できる。 データセット中の対話文脈をある特徴の有無により 2 つの集合に分け,集合ごとに矛盾応答を生成した RGM の個数の平均を求めた. 有意水準 $1 \%$ の片側 $\mathrm{t}$ 検定に基づき 2 つの集合間で矛盾応答を生成した RGM の個数の平均が有意に異なる場合, その特徴を,矛盾応答の生成を誘発する特徴とみなした。
2)RoBERTaを Switchboard コーパス [14] で追加学習し対話行為分類器を構築した. 同コーパスにおける評価データセットでの正解率は $80.4 \%$ だった.語彙に基づく特徵。また,疑問詞 “how” $u_{q}$ に含む対話文脈も矛盾応答を誘発しやすいことを確認した. “how”を $u_{q}$ に含む対話文脈 3513 個において矛盾応答を生成した RGM の個数の平均は 2.60 だった一方,“how”を含まない場合の平均は 2.39 にとどまった.このことから,方法や度合いに関する質問に対し一貫性を保ちながら説明することは現在のRGM でも比較的難しいことがわかった.
## 4 学習データとしての有用性の検証
RGM の矛盾応答からなる大規模データセットを学習データとして用いることで, データ駆動型の矛盾抑制の有効性が向上することを示す。一例とし $\tau$, 対話文脈中の先行発話 $u_{r}$ と RGM 応答の間の一貫性を自動判定する矛盾検出器の性能向上を試みる. 矛盾検出器は, 矛盾抑制のための後処理 $[1,2]$ や RGM の矛盾生成頻度の自動評価に用いられ,特に重要な矛盾抑制のための手法の一つである.
既存の検出器は, 実際に RGM が生成する矛盾応答の代わりに,自動合成された矛盾応答や人手で書かれた矛盾応答を学習資源として用いることによって開発されてきた $[1,4]$. 我々は,実際に RGMが生成した矛盾データを学習に利用することで,有効性の高い検出器を構築できることを確認する.特に本実験では, 我々のデータセットで学習した検出器の性能を,Nie らが人手矛盾データを用いて構築した既存の最高性能の検出器 [1] と同様の方法で構築した検出器の性能と比較する。
## 4.1 実験設定
矛盾検出器. Nie らは,人手で書かれた矛盾応答からなる DECODE データセットで RoBERTa [15]を追加学習し矛盾検出器を構築した. 本実験では, $\mathrm{Nie}$ らの設定に従い,我々のデータセットで RoBERTa を追加学習し検出器 $\mathrm{CD}_{\mathrm{RGM}}$ を構築した. 比較対象として, $\mathrm{CD}_{\mathrm{RGM}}$ の学習に用いた事例数と同数の事例を DECODE データセットから無作為抽出したものを学習データセットとする $\mathrm{CD}_{\mathrm{HUM}}$ を用意した.
評価データセット。本研究で収集した RGM の矛盾応答は, MSC という特定の対話コーパスの $\mathrm{FQ}$ に対して生成されたものに限られている. しかし,矛盾検出器を実際に矛盾抑制に用いる場合, 異なるドメインの対話における $\mathrm{FQ}$ 以外に対する RGM の応答の矛盾を検出できることも重要となる. そこで,異なる対話コーパスの,FQに限定しない対話文
Topical-test / Daily-test
脈に対する RGM の応答からなる評価データセットを 2 種類構築した。一方は Topical-Chat データセット [16], 他方は DailyDialog データセット [17] に収録されている対話文脈からなり, 前者を Topical-test データセット,後者を Daily-test データセットと呼ぶ. 各評価データセットは 7 個のサブセットで構成されており,各サブセットは $\mathrm{P} 2, \mathrm{PX}, \mathrm{B} 1 , \mathrm{~B} 2 , \mathrm{~B} 3$ , BL,O6 のいずれかの RGM の矛盾応答と無矛盾応答 50 個ずつからなる. ${ }^{3)}$ 対話文脈は,FQに限らない質問発話が末尾に来るものをコーパスから無作為抽出し用意した. ${ }^{4}$ ) 付録 B に構築の詳細を示す. また,これらのデータセットに加え,Nie ら [1]により構築された Human-Bot データセットも評価データセットとして用いた. Human-Bot データセットは,人間と RGM の間の対話において発生した RGM による矛盾応答と無矛盾応答 382 個ずつからなる.
$\mathbf{C D}_{\text {RGM }}$ の学習. 本研究で構築した大規模データセットを用いて $\mathrm{CD}_{\mathrm{RGM}}$ を学習した. 同データセットの応答を生成した 8 個の RGM は, Topical-test, Daily-test データセットの応答を生成した 7 個の RGM と重複する. 未知の RGM 応答に対する矛盾検出精度を評価するため, Topical-test, Daily-test データセットの応答を生成した 7 個の RGM のうち 1 個の RGM を評価対象 RGM とし, Topical-test, Daily-test データセットのうち評価対象 RGM の応答からなるサブセットを評価データセット,我々の大規模データセットから評価対象 RGM の応答を除いたものを学習データセットとした. 評価対象 RGM を変えながら $\mathrm{CD}_{\mathrm{RGM}}$ の学習と評価を 7 回実施した. B2を評価対象とした際,学習データセットの事例数は矛盾応答と無矛盾応答それぞれ 8023 個で最小となったため,他の RGM を評価対象とした場合もこの事例数に揃えた. 付録 Cに学習の詳細を示す.
3)大規模矛盾応答収集において CG の矛盾応答の生成頻度は比較的低かったことから,本研究ではコストを鑑みて $\mathrm{CG}$ の応答からなる評価データセットについては構築しなかった.
4)非質問発話が末尾となる対話文脈は,話題転換を促す応答など,対話文脈と無関係な応答も妥当な応答とする可能性があるため,矛盾応答が発生する頻度はより低くなると考えられる. 本研究では,コストを鑑みて質問以外の発話に対する RGM の応答からなる評価データは収集しなかった. $\mathbf{C D}_{\text {HUM }}$ の学習. DECODE データセットから矛盾応答と無矛盾応答を 8023 個ずつ無作為抽出し学習に用いた。他の設定は $\mathrm{CD}_{\mathrm{RGM}}$ と同様である.
## 4.2 実験結果
表 5 に,RGM 応答の文脈中発話 $u_{r}$ との一貫性を 2 值分類した時の正解率を示す. $\mathrm{CD}_{\text {HUM }}$ について, Human-Bot を除く全評価データセットにおける正解率が 0.7 を下回った. 特に P2 が評価対象だった時の Daily-test での正解率は 0.52 であり, チャンスレートと同程度となった. 以上から, RGM 矛盾応答の検出における $\mathrm{CD}_{\mathrm{HUM}}$ の精度には実用上問題があることがわかった. 一方, 我々のデータセットで学習した $\mathrm{CD}_{\mathrm{RGM}}$ は, 学習事例数が $\mathrm{CD}_{\mathrm{HUM}}$ と同じであるにも関わらず全評価データセットで $\mathrm{CD}_{\mathrm{HUM}}$ の正解率を上回った. 以上から $\mathrm{CD}_{\mathrm{RGM}}$ は,未知のドメインの FQ とは限らない質問に対する,未知の RGM の応答の矛盾検出に有効であることがわかった. 更に,対話文脈の種類を一切制限しない Human-Bot データセットでも $\mathrm{CD}_{\mathrm{RGM}}$ の検出精度は高く,任意の対話文脈に対する矛盾応答も検出できると考えられる。 なお, $\mathrm{CD}_{\text {HUM }}$ の学習に DECODE データセット中の全事例 (矛盾応答無矛盾応答それぞれ 15605 個) を用いた場合でも,Human-Botを除く全評価データセットで $\mathrm{CD}_{\mathrm{RGM}}$ が $\mathrm{CD}_{\mathrm{HUM}}$ の正解率を上回った.
## 5 おわりに
矛盾応答の特徴に関する分析やデータ駆動型の手法の学習に利用可能な RGM の矛盾応答データはこれまで大規模収集されておらず,矛盾応答の抑制に向けた取り組みの障害となっていた。
本研究では,多様な RGMによる矛盾応答からなる大規模データセットを構築した. 構築したデータセットの分析を通し, RGM の矛盾応答や RGM の矛盾応答を誘発する対話文脈の特徵など,より有効性の高い矛盾応答の抑制手法の開発に有用な知見が得られた. さらに, 矛盾検出器の学習を例として, 本データセットがデータ駆動型の矛盾抑制のための学習データとして有効であることがわかった.
## 謝辞
本研究は,JSPS 科研費 JP22K17943, JP21J22383, JST ムーンショット型研究開発事業 JPMJMS2011-35 (fundamental research) の助成を受けて実施されたものです. 研究遂行にあたりご助言ご協力を賜りました Tohoku NLP グループの皆様に感謝申し上げます.
## 参考文献
[1] Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, and Jason Weston. I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling. In Proc. of ACL2021, pp. 1699-1713, 2021.
[2] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proc. of ACL2019, pp. 3731-3741, 2019.
[3] Margaret Li, Stephen Roller, Ilia Kulikov, Sean Welleck, YLan Boureau, Kyunghyun Cho, and Jason Weston. Don' $t$ say that! Making inconsistent dialogue unlikely with unlikelihood training. In Proc. of ACL2020, pp. 47154728, 2020.
[4] Weizhao Li, Junsheng Kong, Ben Liao, and Yi Cai. Mitigating Contradictions in Dialogue Based on Contrastive Learning. In Findings of ACL2022, pp. 2781-2788, 2022.
[5] 志貴佐藤, 怜奈赤間, 潤鈴木, 健太郎乾. Follow-up 質問による矛盾応答収集の提案. 言語処理学会第 29 回年次大会発表論文集, pp. 387-392, 2023.
[6] Tianyi Zhang, Felix Wu, Arzoo Katiyar, Kilian Q. Weinberger, and Yoav Artzi. Revisiting Few-sample BERT Fine-tuning. In Proc. of ICLR2021, 2021.
[7] Jing Xu, Arthur Szlam, and Jason Weston. Beyond Goldfish Memory: Long-Term Open-Domain Conversation. In Proc. of ACL2022, pp. 5180-5197, 2022.
[8] Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhen Guo, Zhibin Liu, and Xinchao Xu. PLATO-2: Towards Building an Open-Domain Chatbot via Curriculum Learning. In Findings of ACLIJCNLP2021, pp. 2513-2525, 2021.
[9] Siqi Bao, Huang He, Fan Wang, Hua Wu, Haifeng Wang, Wenquan Wu, Zhihua Wu, Zhen Guo, Hua Lu, Xinxian Huang, Xin Tian, Xinchao Xu, Yingzhan Lin, and Zheng-Yu Niu. PLATO-XL: Exploring the Large-scale Pre-training of Dialogue Generation. In Findings of AACL-IJCNLP2022, pp. 107-118, 2022.
[10] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proc. of EACL2021, pp. 300-325, 2021.
[11] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internet-Augmented Dialogue Generation. In Proc. of ACL2022, pp. 8460-8478, 2022.
[12] Kurt Shuster, Jing Xu, Mojtaba Komeili, Da Ju, Eric Michael Smith, Stephen Roller, Megan Ung, Moya Chen, Kushal Arora, Joshua Lane, Morteza Behrooz,
William Ngan, Spencer Poff, Naman Goyal, Arthur Szlam, Y.-Lan Boureau, Melanie Kambadur, and Jason Weston. BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage. In arXiv preprint arXiv:2208.03188, 2022.
[13] Susan Zhang, Stephen Roller, Naman Goyal, Mikel Artetxe, Moya Chen, Shuohui Chen, Christopher Dewan, Mona Diab, Xian Li, Xi Victoria Lin, Todor Mihaylov, Myle Ott, Sam Shleifer, Kurt Shuster, Daniel Simig, Punit Singh Koura, Anjali Sridhar, Tianlu Wang, and Luke Zettlemoyer. OPT: Open Pre-trained Transformer Language Models. In arXiv preprint arXiv:2205.01068, 2022.
[14] Dan Jurafsky, Liz Shriberg, and Debra Biasca. Switchboard SWBD-DAMSL shallow-discourse-function annotation coders manual. Institute of Cognitive Science Technical Report, 1997.
[15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. In arXiv preprint arXiv:1907.11692, 2019.
[16] Karthik Gopalakrishnan, Behnam Hedayatnia, Qinlang Chen, Anna Gottardi, Sanjeev Kwatra, Anu Venkatesh, Raefer Gabriel, and Dilek Hakkani-Tür. Topical-chat: Towards knowledge-grounded open-domain conversations. In Proc. of INTERSPEECH2019, pp. 1891-1895, 2019.
[17] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A Manually Labelled Multiturn Dialogue Dataset. In Greg Kondrak and Taro Watanabe, editors, Proc. of IJCNLP2017, pp. 986-995, 2017.
[18] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The Curious Case of Neural Text Degeneration. In Proc. of ICLR2020, 2020.
[19] Alexander H. Miller, Will Feng, Adam Fisch, Jiasen Lu, Dhruv Batra, Antoine Bordes, Devi Parikh, and Jason Weston. ParlAI: A dialog research software platform. In Proc. of EMNLP2017: System demonstrations, pp. 79-84, 2017.
[20] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proc. of EMNLP2020: System Demonstrations, pp. 38-45, 2020.
## A 大規模データセット構築の詳細
## A. 1 構築方法
最終発話が $\mathrm{FQ}$ を含む対話文脈を用意し,それらに対する応答を RGM に生成させる. 生成された各 RGM 応答について,人手で矛盾の有無を判定することで矛盾応答と無矛盾応答を収集する。
$\mathrm{FQ}$ 収集のアイデア. 質問文 $q$ を含む発話 $u_{q}$ を末尾とする対話文脈を $C, u_{q} \in C$ より $d_{u_{r}}$ 個前の非質問文 $r$ を含む発話を $u_{r} \in C$ とする. 質問文 $q$ が $r$ を参照する質問である場合, $q$ を $r$ に対する FQ とみなす. 質問文 $q$ が $r$ の FQであるかを判定するには, $q$ が $r$ に関連する文であるかを確認する必要がある. 近年の RGM は対話文脈に関連する応答を生成できることを踏まえ,本研究では RGMを用いて $q$ と $r$ の関連性を自動評価することを考える.
$\mathrm{FQ}$ 収集の方法. 発話 $u_{r}$ と $u_{q}$ の間にある発話系列を $C_{\mathrm{mid}}, C$ から $u_{q}$ および $C_{\mathrm{mid}}$ を除いた発話系列を $C_{\mathrm{w} / \mathrm{o}\left.\{u_{q}, C_{\mathrm{mid}}\right.\}}$ とする. 同様に, $u_{q}$ と $r$ を除いた $C$ を $C_{\mathrm{w} /\left.\{u_{q}, r\right.\}}$ とする. 文 $q$ が $r$ に対する $\mathrm{FQ}$ である場合, $u_{q}$ の元の条件付き確率に比べ, $P\left(u_{q} \mid C_{\mathrm{w} / \mathcal{o}\left.\{u_{q}, C_{\text {mid }}\right.\}}\right)$ は低くな弓ず, $P\left(u_{q} \mid C_{\mathrm{w} / \mathrm{o}\left.\{u_{q}, r\right.\}}\right)$ は低くなると考えられるため, $\mathrm{FQness}=P\left(u_{q} \mid C_{\mathrm{w} / \mathrm{o}\left.\{u_{q}, C_{\text {mid }}\right.\}}\right) / P\left(u_{q} \mid C_{\mathrm{w} / \mathrm{o}\left.\{u_{q}, r\right.\}}\right)$ は高くなると考えられる. Blenderbot1-3Bを用いて各確率を求めることで FQnessを計算し, 対話文脈集合から FQness が最も高くなる対話文脈を取り出す.
## A. 2 構築設定
対話文脈の用意. 対話コーパスから, $d_{u_{r}}+1$ 個以上の発話からなり最終発話が質問文を含む発話系列を取り出すことで,対話文脈集合を作成した。 MSC データセットを収集元とし,最終的に $59 \mathrm{k}$ 個の発話系列からなる対話文脈集合を得た. ここから, $d_{u_{r}}=1,3,5$ と設定したときに FQness が最も高い対話文脈を $3250 , 1000 , 100$ 個ずつ取り出した.
RGM 応答の収集. 各対話文脈に対し, 8 個の RGM から応答を一つずつ集め計 8 個の応答を得た. このとき,矛盾応答を効率的に集めるため,対話文脈それぞれに対して各 RGM に 100 個の応答候補を生成させ, Nie らが構築した矛盾検出器により $u_{r}$ と矛盾する可能性が最も高いと予想された候補をその RGM の最終的な応答とした. 応答候補の生成には, top-p サンプリング [18]を用いた. サンプリングにおける $\mathrm{p}$ の值を, ParlAI [19] などの 0.9 と比べて大幅に小さい 0.5 に設定し, 生成確率の低い候補の生成を回避した. ChatGPT の応答生成には OpenAI の API, Plato-2 と Plato-XL の応答生成には Knover, ${ }^{5}$ 他の RGM の応答生成には ParlAIを用いた。
## B 評価データセット構築の詳細
Topical-Chat, DailyDialog データセットから, $d_{u_{r}}+1$個以上の発話を有し最終発話が質問文を含むような発話系列を無作為抽出し, 評価データセット構築のための対話文脈とした. Topical-test について, $d_{u_{r}}=1$ の評価セット構築のために 300 個, $d_{u_{r}}=3$ の評価セット構築のために 100 個対話文脈を収集した. Daily-test について, $d_{u_{r}}=1$ の評価セット構築のために 200 個, $d_{u_{r}}=3$ の評価セット構築のために 100 個対話文脈を収集した. FQnessを用いた対話文脈の抽出を行わない点と ChatGPT の応答を収集しない点を除き,その他の手順および設定は大規模データセット構築と同様である.
## C 矛盾検出器学習の詳細
学習データ. 負例は, 我々のデータセットに収録されている RGM の矛盾応答とその先行発話 $u_{r}$ の組とした。一方正例は,データセット中の無矛盾応答および無作為に選択された同話者の対話文脈中の先行発話の組とした. これは, $u_{r}$ と矛盾しない応答であれば他の発話とも矛盾しない可能性が高いと考えられること,また $u_{r}$ と RGM 応答の組と比べ関連性が低いと考えられる発話の組を正例とすることで,関連性の低い発話の組は正例であることを検出器が学習できると考えられるためである。
ハイパーパラメータ. 一部を除き, Hugging Face [20] の初期値を用いて検出器を構築した。 $\left.{ }^{6}\right)$
各学習率におけるモデル学習時, パラメータ更新 200 回ごとに検証データセットにおける正解率を計算し, 一回前に計算した正解率を下回った段階で,一回前に正解率を計算した際のパラメータをその学習率におけるモデルの最終パラメータとした. 学習率ごとにモデルを学習していき,検証データセットにおける正解率が最も高くなった学習率の最終パラメータを評価に用いた。なお,検証データセットは学習データセットから $10 \%$ のデータを無作為に取り出したサブセットであり,モデルパラメータの学習には使わなかった。
5) www.github.com/PaddlePaddle/Knover.
6) train_batch_size: 128 , learning_rate: $\{1 \mathrm{e}-6,5 \mathrm{e}-6,1 \mathrm{e}-5,5 \mathrm{e}-$ 5\}, weight_decay: 0.01, and eval_steps: 200. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B11-2.pdf | # ChatGPT を用いた日本語対話応答の多面的自動評価
寺内祐希 ${ }^{1}$ 加藤恒夫 ${ }^{1}$ 田村晃裕 ${ }^{1}$ 池田和史 ${ }^{2}$
${ }^{1}$ 同志社大学大学院 ${ }^{2} \mathrm{KDDI}$ 総合研究所
${ }^{1}\{$ ctwh0179@mai14, tsukato@mail, aktamura@mai1\}.doshisha. ac.jp
${ }^{2}$ kz-ikeda@kddi.com
## 概要
人間と雑談を行う非タスク指向型対話システムの性能を簡便に測ることのできる自動評価指標が望まれている。対話の応答は多様であり, 評価は様々な観点から多面的に行われることが望ましい。そこで本研究では, 現在最も性能が優れた大規模言語モデル (LLM) と呼ばれる ChatGPTを用いた, 日本語対話応答の多面的な評価を行う. 対話の品質を左右すると考える 6 つ評価項目における日本語対話応答の主観評価データを収集し, ChatGPT による自動評価との比較を行う。その結果, ChatGPT と人間の主観評価の相関は, 人間同士の相関に近いことを確認した. また, 評価対象の文を英語に翻訳することにより,主観評価との相関が強まることを確認した。
## 1 はじめに
非タスク指向型対話システムの性能評価においては,人手による主観評価が一般的である[1]. しかし人手による評価は時間とコストがかかるため, 特に開発段階においては,簡便にシステムの性能を測ることが出来る自動評価指標が望まれている.
対話の自動評価指標には, 参照型の指標と非参照型の指標がある. 参照型の指標としては BLEU[2]や $\mathrm{FBD}[3]$ 等があるが, 対話の応答は多様であり, 単一の正解文との比較では適切に評価することが難しい.非参照型の指標としては FED[4]や GPTScore[5]など LLM を用いた手法が近年主流であり,これらは人手による主観評価との相関が比較的高いことが示されている。その中でも,人間のフィードバックにより学習した報酬モデルを用いた強化学習を行った LLM である ChatGPT によって対話の評価を行う研究が特に活発に行われており, 従来手法より人手との相関が高いことが報告されている $[6,7,8]$. しかし, これらは英語のデータセットにより検証されている。日本語対話データでは FED の検証が行われている $[9,10]$ が, ChatGPT を用いた日本語対話応答の評価は著者の知る限り現在行われていない。そこで本研究では,ChatGPT により日本語対話応答の評価を行い, 日本語対話応答の自動評価における ChatGPT の活用の有効性を検証する。
対話の応答は多様であり,評価の際には全体的な品質だけでなく, 複数の側面を多面的に評価することが望ましいとされる[11]. 一方で, 評価項目が統一化されていないという問題点がある[12]. 対話には様々な評価項目が存在するが,統一された定義や名称がなく,似た意味の評価項目でも研究によって定義や名称が微妙に異なる. また, 人手による主観評価データを収集する際,コストや評価者の負担を考慮して特定の評価項目に絞ることが多い。これらの要因から, 対話の評価項目は研究により様々で統一されていない.この問題点に留意して,本研究では先行研究をべースに対話の品質を測るうえで重要な 6 つ評価項目を選定し,主観評価データの収集を行う.
主観評価データを収集した対話応答について ChatGPTにより同じ評価項目の自動評価を行った結果,自動評価と主観評価の相関は,人間同士の相関に近いことを確認した。また, ChatGPTでは学習デ一夕の性質上, 要約などのタスクにおいて, 英語での精度が他言語に比べて高いことが報告されている [15]. 本研究では対話の自動評価に関して日本語と英語間の性能差を比較するために,評価対象の文を英語に翻訳して検証した. その結果, ほとんどの評価項目で主観評価との相関が向上した.
## 2 関連研究
FED[4]は DialoGPT[13]を用いて,対話履歴が与えられた際に評価用に指定したフォローアップ $(\mathrm{FU})$ 発話で強制デコーディングを行い,その FU 発話の対数尤度を測ることで評価を行う指標である。 FED では計 18 個の細かい評価項目が用いられ, 収集した主観評価データと中程度の相関があることが報告されている.
表 1 TopicalChat データの評価項目と定義
G-EVAL[6]では ChatGPTを用いて対話の自動評価を行っている. 評価を行う際に ChatGPT に与えるプロンプトとして, 評価タスクの定義と, 各評価項目の評価基準に加え, Chain of Thought(CoT)という中間命令を与える. G-EVAL は CoT を用いて評価手順を LLM に詳細化させることで,人手による評価と高い相関を実現した。
複数のモデルを組み合わせて対話の評価を行う USR[14] では, 人間同士の会話を収集した TopicalChat コーパスを対話文脈として, 複数のシステムによって生成された応答文に対して人手による主観評価が行われている. TopicalChat データにおける評価項目とその定義を表 1 に示す. TopicalChat デ一夕は最新の対話評価に関する研究においてよく用いられており $[6,7,8]$, 対話における重要な品質を測定していると考えられる.
ChatGPT における英語と他言語での性能差の検証はいくつか行われている. Lai ら[15]は, 要約など 7 つの自然言語処理タスクにおいて,日本語を含む 37 の言語で ChatGPT を評価しており, ほとんどのタスクにおいて英語が他言語に比べて高い性能を示すことを報告している. 尚, この研究では対話の自動評価に関する検証は行われていない。
## 3 主観評価データの収集
## 3.1 クラウドソーシングによる主観評価
ChatGPT を用いて日本語対話応答の多面的な評価を行うために,クラウドソーシングによって評価対象となる主観評価データを収集する。
評価対象となる応答文を生成するために, NTT 社の
1) elyza/ELYZA-japanese-Llama-2-7b-instruct $\cdot$ Hugging Face表 2 主観評価データの評価項目と定義
Transformer[16]をベースとした対話モデル [17]と, ELYZA 社の日本語 LLM $^{1}$, そして rinna 社の日本語対話 $\mathrm{GPT}^{2}$ の 3 種のモデルを用いる. 入力文には, NTT 社が公開している日本語版 PersonaChat データから抽出した 4 ターンの対話文脈を与え, それに続く応答文をモデルごとに 1 文ずつ, 計 3 種類生成する. 評価者は分類の定義や方法を示した作業手順書を読んだ後, 割り当てられた応答文を評価する. 本研究では 750 種の対話文脈に対して, 3 つのモデルで生成した応答文,合計 2,250 種の応答文の評価を行う. 1 ファイルあたりの対話文脈が 30 種, 応答文が 90 種となるように均等に分割し, 25 種類のファイルを作成した. 1 つのファイルにつき 5 人の評価者が評価を行う. 評価者による偏りを防ぐために, 1 人あたりが評価できるファイル数の上限を 3 個とした.
評価項目については, 2節で示した TopicalChatデー タをベースに, 対話の品質にとって重要であると考えられる 6 項目を評価項目に選定し,主観評価を行う。選定した評価項目とそれらの定義を表 2 に示す.
TopicalChat データの評価項目より,「Natural」を 「自然さ」,「Interesting」を「興味深さ」,「Overall Quality」を「総合的な品質」として評価項目に選定した.「Understandable」については近年の対話システムではほとんどの応答文が理解可能であることから G-EVAL[6]において評価項目から除外されており, 本論文でも除外した.「Uses Knowledge」については, 対話文脈で何らかの知識が与えられる TopicalChat の性質に依存した評価項目であり, 本研究では除外した. 残る「Maintains Context」について
2) rinna/japanese-gpt-neox-3.6b-instruction-ppo $\cdot$ Hugging Face
表 3 各評価項目間の主観評価値の相関係数(スピアマン相関)
は,対話文脈の続きとして有効であるかという項目であるが,他の項目に比べて,話題に沿っているのか,それまでの対話の経緯を無視していないかといった幅広い観点を含んでおり,FEDにおいては
「Coherent」と「Relevant」といった別の項目として扱われているため, 「文脈的整合性」と「話題の関連性」の2つに分割した。
加えて, FED の評価項目に含まれる「Consistent」 (発話に矛盾がないか) については対話における矛盾を検出する研究もいくつか行われている[18,19]ことから,発話が一貫して矛盾のないことは対話において重要だと考えられるため,「首尾一貫性」として評価項目に選定した. 評価のレベル数は TopicalChat データに準拠したうえで, 新たに追加した項目は各レベルの定義が明瞭になるように設定した結果,「文脈的整合性」,「首尾一貫性」を 2 段階, 「自然さ」,「興味深さ」,「話題の関連性」は 3 段階,「総合的な品質」は 5 段階とした. どの項目も評価値が大きくなるほど良い。(付録 $\mathrm{A} を$ 参照)
## 3.2 主観評価データの分析
本節では収集した主観評価データの分析を行う。表 3 に各評価項目間のスピアマンの相関係数を示寸. 尚, 相関係数の算出には 5 人の評価者の評価値の平均值を用いている. TopicalChat データの評価項目を 2 つに分割した「文脈的整合性」と「話題の関連性」の相関係数は 0.65 であり, 他の項目間の相関係数と比較して高すぎる値では無く, 分割は妥当であるといえる.また,「興味染さ」は他の項目との相関が突出して低い.これは他の項目が対話の継続に大きく関わる項目であるのに対し,「興味深さ」が低い場合, 即ち「そうですね」といった汎用的な応答でも対話は継続する場合が多いためであると考える.「総合的な品質」との相関は「文脈的整合性」が最も高く, 評価者はこの項目を応答文の品質を判断する際に重視しているといえる. 表 4 に各評価項目の評価値の平均, 標準偏差, 評価者間の相表 4 各評価項目の平均値, 標準偏差, 評価者間の相関係数 $\left(\mathrm{r}_{\mathrm{s}}\right.$ : スピアマン相関, $\mathrm{r}_{\mathrm{p}}$ : ピアソン相関)
関係数を示す.ここで相関係数は, 1 人の評価値と他 4 人の評価値の平均との相関係数を求め, それを 5 人の評価者全員について行いその平均値を用いている. 各項目の相関係数は TopicalChat データと比較すると少し低い值であるが,どの指標についても 0.4 を上回る相関がある. TopicalChat データでは比較的少量のデータ (360 文) を対話研究者が評価しているのに対して, 本研究ではクラウドソーシングにより 2,250 文の評価を行ったことを考慮すると, ある程度評価者間の評価が一致しているといえる。
## 4 ChatGPTによる自動評価
ChatGPT を用いて対話応答文における先述の 6つの項目の評価を行う.プロンプトにおいて, 各評価項目の定義やレベルごとの基準についてはクラウドソーシングで用いた評価作業手順書の内容(付録 B を参照)を用いる。また,「総合的な品質」以外の 5 項目については, 各レベルに 1 文ずつ, 評価作業手順書と同様の例文を与える。さらに各評価項目の評価値のみを出力することを促す文と,フォーマットの指定を加えることで,評価値の集計の簡略化を図る。評価値は主観評価と同様に各評価項目で定められた範囲の整数値を, ChatGPT に直接出力させる.
日本語と英語での自動評価の性能差を検証するため, 評価対象の文およびプロンプトを英語に翻訳した場合でも評価を行う。
表 5 実験結果(左:スピアマン相関/右:ピアソン相関)
さらに,本論文ではベースラインとして 2 つ文のトークン間の BERT[20]による埋め込み表現におけるコサイン類似度からスコアを算出する手法である BERTScore[21]を用いるが,トークン間のコサイン類似度を用いるという性質上, BERTScore は「話題の関連性」を測るのに比較的適していると考えられる、そこで, ChatGPT に生成させた評価値に BERTScoreによる評価値を加算することで人手との相関の向上を図る。具体的な加算方法は以下の通りである.
$
\text { score }=c_{i}+w\left(b_{i}-\bar{b}\right)
$
ここで $c_{i}$ は ChatGPT による評価值, $b_{i}$ は BERTScore によるスコア, $\bar{b}$ は応答文に対する BERTScore の平均値,wは BERTScoreの重みを決定するハイパーパラメータを表す。
## 5 実験
## 5.1 実験設定
本実験では,主観評価データの評価値と ChatGPT による評価値の相関係数を測ることで,日本語対話応答における LLM による自動評価の有効性を検証する.ChatGPT のモデルには gpt-3.5-turbo を用いる. パラメータはデフォルトの值に従うが, スコアの摇らぎを減らすため, 応答の多様さを制御するパラメ一タである temperature の值を最も低い 0 に設定する. BERTScore は 4 ターンの対話文脈の最後の発話と, それに続く応答文の 2 文間で算出する. また,式(1)の重み $w$ の值は 10 とする. 応答文やプロンプトの英訳には,翻訳ツールである DeepL ${ }^{3}$ )を用いる.
## 5.2 実験結果
各手法の評価値と主観評価値との相関係数を表 5 に示す. ChatGPT による評価は, 表 4 で示した評価者間の相関に近く, BERTScore による評価を大きく上回っており,日本語の対話評価においても ChatGPT を用いることの有效性が確認できる.
また,評価対象の文やプロンプトを英語に翻訳することで,ほとんどの項目で人手との相関が上がっていることから, 対話の自動評価においても日本語と英語の間で ChatGPT における性能差があることがわかる.BERTScore においても応答文を英語に翻訳することで人手との相関が上がっている理由としては, 英語は日本語と比べてトークン数が少なく,英訳することで無駄なトークンが削減されて 1 トー クンあたりの重要度が増すことや, 埋め込み表現の算出に用いられる BERT の学習データが影響していると考えられる.また, BERTScore と ChatGPT を組み合わせることで仮説通り「話題の関連性」の相関が上がっており, 各項目に適したモデルを組み合わせることで,単一のモデルによる評価よりも人手との相関が高まる可能性があることが考えられる.
## 6 おわりに
本論文では日本語対話の自動評価における ChatGPT の有効性を検証するため, 対話の重要な品質であると考えられる 6 つ評価項目に関する主観評価データを収集し, ChatGPT による評価を行った. その結果, ChatGPT による評価と主観評価データとの相関が人間同士の相関に近いことを確認し,日本語においても ChatGPT を対話評価に用いる有効性を確認した。一方で,応答文を英語に翻訳することで相関が高くなることから,対話評価における ChatGPT の日本語と英語での性能差についても確認した. 今回は ChatGPT を対象に,主観評価で用いた評価作業手順書に合わせたプロンプトによる評価を行ったが,今後は別の LLM を用いた評価や,異なるプロンプトでも評価を行い,主観評価との相関をより向上させたい.
3) https://www.deepl.com/translator
## 参考文献
[1] Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, Qun Liu. Achieving reliable human assessment of opendomain dialogue systems. In Proceedings of the $60^{\text {th }}$ Annual Meeting of the Association for Computational Linguistics, pp.6416-6437, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[2] Kishore Papineni, Salim Roukos, Todd Ward, and Wei Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
[3] Jiannan Xiang, YahuiLiu, Deng Cai, Huayang Li, Defu Lian, Lemao Liu. Assessing dialogue systems with distribution distances. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 2192-2198, Online, August 2021. Association for Computational linguistics.
[4] Shikib Mehri, and Maxine Eskenazi. Unsupervised Evaluation of Interactive Dialog with DialoGPT. In Proceedings of the SIGdial 2020 Conference, pp. 225-235, 1 st virtual meeting, 01-03 July 2020. Association for Computational Linguistics.
[5] Jinlan Fu, See-Kiong Ng, Zhengbao Jiang, Pengfei Liu. Gptscore: Evaluate as you desire. arXiv preprint arXiv:2302.04166, 2023.
[6] Yang Liu, Dan Iter, Yichong Xu, Shuohang Wang, Ruochen $\mathrm{Xu}$, Chenguang Zhu. G-Eval:NLG Evaluation using Gpt-4 with Better Human Alignment. In Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing, pp. 2511-2522, Singapore, December 2023.
[7] Yen-Ting Lin, Yun-Nung Chen. LLM-Eval: Unified MultiDimensional Automatic Evaluation for Open-domain Conversations with Large Language Models. arXiv preprint arXiv:2305.13711, 2023.
[8] Peiyuan Gong, Jiaxin Mao. CoAScore: Chain of Aspects Prompting for NLG Evaluation. arXiv preprint arXiv:2312.10335, 2023.
[9] 川本稔己, 岡野裕紀, 山崎天, 佐藤敏紀, 船越孝太郎,奥村学. フォローアップ発話を用いた日本語対話の自動評価. 言語処理学会第 29 回年次大会発表論文集 (2023 年 3 月), p.1659-1663.
[10] 佐藤志貴, 岸波洋介, 杉山弘晃, 赤間怜奈, 徳久良子,鈴木潤. 多様な話者との自動対話に基づく雑談システ公自動評価. 言語処理学会第 28 回年次大会発表論文集(2022 年 3 月), p.1099-1104.
[11] Ananya B Sai, Akash Kumar Mohankumar, Mitesh M Khapra. A survey of evaluation metrics used for NLG systems. ACM Computing Surveys (CSUR) 55, 2 (2022), 139.
[12] Shikib Mehri, Jinho Choi, Luis Fernando D'sHaro, Jan Deriu, Maxine Eskenazi, Milica Gasic, Kallirroi Georgila, Dilek Hakkani-Tur, Zekang Li, Verena Rieser, Samira Shaikh, David Traum, Yi-Ting Yeh, Zhou Yu, Yizhe Zhang, Chen Zhang. Report from the NSF Future Directions Workshop on Automatic Evaluation of Dialog: Research Directions and Challenges. arXiv:2203.10012, 2022.
[13] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT: Large-scale generative pre-training for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp.
270-278, Online, July 2020. Association for Computational Linguistics.
[14] Shikib Mehri, and Maxine Eskenazi. USR: An Unsupervised and Reference Free Evaluation Metric for Dialog Generation. In Proceedings of the 58 Annual Meeting of the Association for Computational Linguistics,
[15] Viet Dac Lai, Nghia Trung Ngo, Amir Pouran Ben Veyseh, Hieu Man, Franck Dernoncourt, Trung Bui, Thien Huu Nguyen. ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large Language models in Multilingual Learning. Findings of the Association for Computational Linguistics: EMNLP 2023, pp. 1317113189, December 2023. Association for Computational Linguistics.
[16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017.
[17] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima and Toyomi Meguro. Empirical Analysis of Training Strategies of Transformer-based Japanese Chitchat Systems. arXiv preprint arXiv:2109.05217, 2021
[18] Sarik Ghazarian, Nuan Wen, Aram Galstyan, Nanyun Peng. DEAM: Dialogue Coherence Evaluation using AMR-based Semantic Manipulations. In Proceedings of the $60^{\text {th }}$ Annual Meeting of the Association for Computational Linguistics, pp.771-785, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[19] Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, Jie Zhou. Addressing Inquiries about History: An Efficient and Practical Framework for Evaluating Open-domain Chatbot Consistency. Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp.10571067, August 2021. Association for Computational Linguistics.
[20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kris-tina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
[21] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, Yoav Artzi. BERTScore: Evaluating Text Generation with BERT., in ICLR2020, OpenReview. net, 2020
## A 各評価項目のレベルごとの定義
(1)自然さ
・ 1 (不自然) : 応答文が日本語として不自然
・2 (やや不自然) : 応答文が日本語として違和感があるもの
の,完全に不自然ではない
$\cdot$3 (自然) : 応答文が日本語として自然
(2)文脈的整合性
・0(噛み合っていない):応答文が対話文脈と噛み合っていな
い
・1(噛み合っている):応答文が対話文脈と噛み合っている (3)興味深さ
・1(興味深くない):応答文に具体性がなく,会話が発展しないような応答
・2(やや興味深い):応答文にある程度具体性があり,会話が続きそうな応答
・3(興味深い):応答文に具体性があり,会話を発展させるような応答
(4)話題の関連性
・1(関連していない):応答文がそれまでの話題と全く異なる話題に関する応答
・2(どちらでもない):応答文が特定の話題を含まず,どちらともいえない
$\cdot$3(関連している):応答文がそれまでの話題に沿っている (5)首尾一貫性
・0(一貫していない):応答文が過去の発話と矛盾している
・1(一貫している):応答文が一貫していて,過去の発話と矛盾がない
図 1:各評価項目のレベルの定義(総合的な品質を除く)
## B ChatGPT のプロンプト(抜粋)
(1)自然さ (1 3)
この項目では応答文が日本語として自然な文であるかどうか
を1 3 の整数值で評価して下さい,
・1 (不自然) : 応答文が日本語として不自然である際は, スコアを 1 として下さい.
例:B さん「おなかがすいてきましたね。なにか食べたいものはありますか?」
$\rightarrow \mathrm{A}$ さん「私は私はお寿司がが食べたいですよね?」
・2 (やや不自然) : 日本語として違和感があるものの,完全に不自然ではない際はスコアを 2 として下さい.
例:B さん「おなかがすいてきましたね。なにか食べたいものはありますか?」
$\rightarrow \mathrm{A}$ さん「私は食べたいですお寿司が」
$\cdot$3(自然):応答文が日本語として自然である際は,スコアを3として下さい.
例:B さん「おなかがすいてきましたね.なにか食べたいものはありますか?」
$\rightarrow \mathrm{A}$ さん「私はお寿司が食べたいです.」
(2)文脈的整合性 $(0 \sim 1)$
それでは評価していただく対話を示します。
$\mathrm{A} さんの$ 応答(評価対象)「〜」
評価結果は必ず以下の形式で出力してください
自然さ:「」文脈的整合性:「」興味深さ:「」
話題の関連性:「」首尾一貫性:「」総合的な品質:「」
図 2 : ChatGPT のプロンプト(一部)
## C 評価文の例
例(1)
対話文脈
Aさん:「こんにちは!お元気でしたか?」
Bさん:「ああ、久しぶりです。こないだ成人しましたよ。
2000 年ミレニアム生まれなもんで。」
A さん:「おめでとうございます! 2000 年と言うことは平成生まれですよね。私と一緒だ!」
B さん:「そうですよね。令和になっちゃったものなあ。急
に老け込んだ感じがしますよ。運動とかされてますか?」
評価対象の文
A さんの応答文(1):「はい、週に数回ジムに行って、ランニングや水泳をしています。」
$\mathrm{A}$ さんの応答文(2):「はい、運動はしていますよ。最近は毎日ジョギングをしています。この前の土日は 30 キロのウルトラマラソンに出場してきました。」
A さんの応答文(3):「いや、特にしてないな。あなたは何かしてるんですか?!
例(2)
対話文脈
Aさん:「こんにちは。最近の調子はいかがですか?」
$\mathrm{B} さん : 「$ 最近体調を崩しまして、ただいま休職中なんです
よ。。」
Aさん:「それは、大変ですね。どんなお仕事をなさっていたんですか?」
B さん:「北陸に住んでいるので、そこの地方銀行で働いていたのですが、地方はいろいろ厳しくて。。」
評価対象の文
A さんの応答文(1):「こんにちは。そうだったんですね、お大事に。わたしは派遣社員として働いていますよ。
A さんの応答文(2):「なるほど。では、復職したくなった
ら、いっでも戻ってきてくださいね。良い一日を!
Aさんの応答文(3):「それは大変です数。地方銀行というと
ころは、このところ経営が厳しいと聞きますよ。」
図 $3:$ 評価文の例 | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |
B11-3.pdf | # 雑談中の発話と文脈から 話者情報を抽出する LLM の能力に関する検証
連慎治 ${ }^{1}$ 竹下昌志 ${ }^{1}$ 伊藤敏彦 ${ }^{2}$
1 北海道大学 大学院情報科学院 2 北海道大学大学院情報科学研究院
shinjimuraji@ist.hokudai.ac.jp takeshita.masashi.68@gmail.com
t-itoh@media.eng.hokudai.ac.jp
## 概要
近年,LLM を用いた雑談システムがユーザやシステム自身の個性を応答生成に活用することで対話の質を向上させる研究が盛んである. しかし,発話者の個性を応答生成に用いるためには対話から発話者の情報を抽出する必要があるが,その抽出手法は十分に研究されていない。また,対話から話者の情報を抽出するためには文脈の考慮も必要だと考えられるが,話者情報抽出における文脈の影響はまだ十分に検証されていない. そこで,本研究では現在最先端とされている LLM がどの程度,雑談発話から文脈を考慮して発話者の情報を抽出できるかを検証する. 実験の結果から, 最先端の LLM が話者の情報を抽出する際に文脈を十分に考慮できていないことが示された。
## 1 はじめに
近年,大規模言語モデル (LLM) を用いた多くの雑談システムが研究されている.これまで言語モデルを用いた雑談システムの研究において,発話者の個性を自然言語による文の形式1)で利用することで, システム自身の発話の一貫性が上昇したり [1],対話の魅力が上昇することが報告されている [2] . しかし,対話に活用するためには何らかの形で話者の情報を用意する必要があり,事前に用意する方法と対話から抽出する方法が考えられる。事前に用意する方法では対話の中で新しく話された話者の情報に対応できず,対話から抽出する方法はまだ十分に研究されていない.
また,人間は雑談中の発話から発話者の情報を抽出する際に,それまで話された内容を使って目標発話で直接話されていない内容を補完しているはずで
1)「私は学生です。」のような自己紹介型の文が使われることが多い. ペルソナ文とも呼ばれる。
ある。本稿では,対話中の目標発話より前の発話を文脈と呼び,人間と LLM がどの程度文脈を用いて話者情報の抽出を行っているか調べる。
よって,本研究では予備実験として人間の場合はどの程度文脈中の内容を用いて話者情報を抽出するのか確認した後,最先端の LLM が雑談中の発話から話者の情報を抽出する際にどんな手法が有効なのか,どの程度文脈を考慮できているのかを検証する.
## 2 予備実験
予備実験では,人間が目標発話から話者の情報を抽出し,さらに人手で抽出された情報が目標発話だけから分かる内容かどうかを分析する.雑談のデー タセットとしては,JPersonaChat データセット [3]を用いる. 全データ 61,781 発話からランダムに目標発話を 400 発話をサンプリングし,目標発話とその対話履歴をアノテータに見せる。 そして,アノテー タが目標発話を聞いたときに想像する発話者の情報を抽出させた。さらに,抽出された話者情報と目標発話のペアを見て目標発話のみから分かる情報か, あるいは何発話前の情報と組み合わせて抽出されたものかをアノテーションした. アノテーションは著者の一人が行った. 結果,19\%の発話で話者情報の抽出の際に文脈が必要であった.
## 3 関連研究
雑談対話から話者の情報を抽出する研究はいくつか先行研究がある.Xu ら [2] は,発話が行われるごとに対話履歴を要約してデータベースに保存し,応答生成時の入力として対話履歴のみではなく関連する要約文を検索補強して用いることでより相手と話した内容に沿った魅力的な対話を行うことができることを示した.このことから,Xu らは対話の要約
表 1 人間による話者情報抽出の例
& \\
図 1 指示文プロンプトの形式
が話者情報の拡張として機能すると主張している。 また,Xu らは要約を保存する動機として,それぞれの発話を個別に保存してしまうと文脈依存な情報が多く保存されてしまい,保存された情報の検索や応答生成の際に負担が大きくなることを挙げている.我々の動機も同様であり, 文脈に依存しない話者情報の抽出を目指すが,対話履歴の要約は行わない. それには二つ理由があり,ひとつは雑談において発話から得られる話者の情報は多いほどよく, 単純な要約では残したい情報が削れてしまう可能性がある. もうひとつは, 発話から推論を通して得られる話者の情報はしばしば単純な要約とは異なるため,我々は推論を必要とするような話者の情報も抽出したいからである.また,Xu らは Transformer のエンコーダデコーダモデルを用いて対話履歴から要約を作成したが,作成された要約に対しては分析を行っておらず,データセットでの perplexityを測るに留まっている. さらに,川本ら [4] や Ribeiro ら [5] も発話から話者情報の抽出を行っているが,文脈の影響は調査されていない。
## 4 本研究で扱うタスク
本研究では,二名の人間同士のテキストの雑談から発話者の情報を文の形式で抽出することを考える. 発話する二名を A と B と仮定し, 交替で発話を行ったものとする. 最後に A が発話した内容を聞いたときに,人間が想定するAの情報を文で書き出すというタスクで LLM の話者情報を抽出する能力を検証する。人手での話者情報の抽出例を表 1 に示す.この例では,4つの話者情報が抽出されている.以下の点に注意して抽出を行う.
・それまでの対話で判明している必要な情報が欠けていない文で抽出する
・常識的なものは抽出しない
・目標発話と関係のない情報は抽出しない 1 点目に関しては, 表 1 の二つ目の話者情報が必要な情報を含んでいる例に該当する。ここで「大学を」という情報が抜け落ちて「もうすぐ卒業する」 という文を抽出して保存しても,内容が文脈依存的になり後の応答生成で活用が難しくなる. 3 点目に関しては,表 1 における,目標発話とは関係のない「誕生日が大晦日」や「19 歳」,「やぎ座」が該当する.
また,本研究では履歴として用いる文脈の長さには制限をかける. 予備実験から,今回用いるデータセットでは履歴として 2 発話分遡れば $98.25 \%$ の発話で話者の情報が抽出できることが分かったため,本研究では目標発話に対して表 1 のように文脈として対話履歴の発話を最大 2 発話付与して話者情報の抽出を行う。
## 5 LLM による話者情報の抽出手法
本研究では日本語の雑談対話から話者情報を抽出した先行研究 [4] に倣ってLLM にプロンプトを与えることで話者情報の抽出を行うが,LLM で抽出する際の条件を変えて精度を調査した. 変更する条件は与える履歴発話の数, プロンプトの内容, 温度とした. 条件の相互作用で性能が変わる可能性もあるが,全ての組み合わせを調べることは困難なため,今回は文脈の条件以外はそれぞれが独立していると仮定しべースとなる抽出システムの一部を変更することで実験を行った. ベースとする指示文を図 1 に示す.
## 5.1 与える履歴発話数の比較
予測時に与える発話履歴数による精度の違いを調査した. 人間の場合は発話履歴が多いほど具体的で正確な話者情報を抽出できると考えられるが,LLM
がどの程度文脈を考慮して話者情報を抽出しているかは未知であるため,文脈として対話履歴を与えないもの, 1 発話分の対話履歴を与えるもの, 2 発話分の対話履歴を与えるものの 3 つを比較した.
## 5.2 温度の比較
LLM は温度の設定で予測を行う際の出力の多様性を変更できる. 本研究ではより確実な出力を行うためにベースの温度を $\mathrm{T}=0$ と設定したが,より高い温度を設定することで多様な話者情報が得られる可能性があるため $\mathrm{T}=1$ で抽出を行い比較を行った。
## 5.3 プロンプトの比較
プロンプトによって抽出できる話者情報が変わる可能性がある. 本研究では, 先行研究 [4] で用いられているような 5 例のタスク例示を行うプロンプトをべースとして,以下の 7 つの条件を変えて効果を確認した.また, ベースの例はデータセットの開発用に分けた対話から手動で作成し,いくつか試したものの中から抽出精度が最も良かった 5 例を用いた.
タスク例示の有無の影響例を用いない方が抽出性能が上がる可能性もあるため,指示文のみでの抽出を実行した。
指示内容の影響ベースでは,LLM が文脈情報として与える別発話から話者情報を抽出するのを避けるために図 1 のように「A の最後の発話で新しく分かる」と記述した. 人間の場合は「A の最後の発話で述べられている」と指示すれば最後の発話と無関係な話者情報の抽出は防げると考えられる.LLM において,このような人間的な指示に変更した場合の影響を調査した。
対象発話の与え方の影響ベースとするプロンプトでは,発話を与える際に表 1 のように文脈中の発話を「A の発話」「B の発話」とし, 目標発話を 「A の最後の発話」と記述した. この記述が LLM にとってどの程度効果的であるかは不明である. よって,文脈と目標発話を LLM がより区別できるようにそれぞれ「A の発話 (C)」「B の発話 (C)」「A の最後の発話 ( $\mathrm{T})\lrcorner$ とマーキングしたものと精度の違いを調査した。
指示文の位置の影響ベースでは,指示文を記述した後に例示を与えたが,例示の後に指示文を置いた場合の精度の違いを調査した。
タスク例示の選択の影響ベースでは手動で選択した抽出するべき話者情報がある場合のタスク例示を用いたが,実際の雑談には話者情報が無い発話も存在する。そのため, 雑談中の話者情報がない発話の割合に合わせて例示の割合を調節すると精度が上がる可能性がある. 予備実験より,21.75\%(87/400) の発話に話者情報が無いことが分かっているので, 5 例の内 1 例を話者情報が無い例に変更し精度を調査した。
負例の有無の影響ベースでは正解例を与えているが,失敗例を与えることで精度が上がる可能性があるため,正例 5 例の前に負例を 1 件追加した場合の精度を調査した。
話者情報の記述形式の影響ベースでは表 1 のような人手で抽出した際の話者情報を与えているが,先行研究では話者情報を「私は大学生です」のような自己紹介の形で与えることが多い. また,データを A と B の雑談としてプロンプトに与えているため, 自己紹介ではなく「A は大学生です」のような A の紹介として与えることで精度が変わる可能性がある。よって,例示の際の話者情報を自己紹介形式,他者紹介形式に変更した場合の精度を調査した.
## 6 実験設定
LLM としては, 最先端のものとして GPT-4 のスナップショット $(\mathrm{gpt}-4-0613)^{2}$ を用いた. 実験はそれぞれの条件で 3 回づつ行い精度の中央値をスコアとした. データセットとしては JPersonaChat(JPC)を用いた. データセット 5000 対話から例示の選択時に用いた 10 対話を除いた 4990 対話からランダムな目標発話 100 件に対し,LLM で話者情報をできるだけたくさん抽出した. 抽出された話者情報と目標発話とその文脈をアノテーターに見せ,評価させた。 アノテーターには,文脈+目標発話から抽出された文が話者情報として断定できる場合は $\mathrm{o}$, 抽出された話者情報が発話者の情報として可能性が高い場合を $\mathrm{p}$, 間違っているものや余分な情報が含まれているもの,日本語として成り立たないもの,目標発話と関わりがないもの,必要な情報が抜けているものは $\mathrm{x}$ とする 3 值で判断してもらった. アノテーションは 20 代男性 1 名に依頼した.
表 2 話者情報の抽出精度
表 3 履歴 2 発話条件で参照できた文脈
## 7 実験結果
話者情報を抽出してアノテータによって。または $\mathrm{p}$ と判定されたものを正解とし, 表 2 に精度を示す. 結果から,まずべースにおいて文脈 1 発話と文脈 2 発話で精度に $8.68 \%$ の差が見られた (表 2 に太字で示す).これはどちらの条件でも抽出に成功している話者情報数は大きな差が無いが文脈 2 発話の条件では誤抽出が多いためである. 誤抽出の多くが目標発話と無関係な文脈部分の発話から抽出された話者情報であり,対象発話だけに上手く注目できていないことが分かる. この誤抽出はマーカを追加することや負例を追加することで減少がみられ精度の上昇が見られた (表 2 に太字で示す)が, ベースと有意になるような精度の差は見られなかった (検定にはフィッシャーの正確確率検定で片側検定し, $\mathrm{p}$ 值の補正をボンフェローニ法で行った).また、ゼロショット設定では予測時の文脈発話数に関わらずベースから精度が下がった. このことから, 例示の効果が分かる.全体を通してべースより有意に精度が上がった条件は無かった. 精度が少し上がった条件がいくつかあったため, 精度の上がった条件を組み合わせて実験をやり直したが,有意な精度の上昇は見られなかった。
## 7.1 LLM が抽出した話者情報の分析
文脈を履歴 2 発話分つけて予測されたモデルは 1 発話分のモデルや文脈無しのモデルと比べ有意に精度が低いが,より文脈から情報を補完して抽出でき
ている可能性がある.これを調べるため,対話履歴を 2 発話分与えたモデルによって抽出された話者情報の内,アノテータが正しいとしたもの $(\mathrm{o}, \mathrm{p})$ に対して,予備実験と同様の分析を行った. 分析は著者 1 名が行った. 比較の対象として,人間が抽出した話者情報, 履歴 2 発話のベース, 履歴 2 発話を使ったものの中で特に精度が良かった 2 つの条件 (マー 力追加, 自己紹介型), 抽出が最も多かった例示なしの条件の 5 つを使う.結果を表 3 に示す. 表より, LLM が抽出した話者情報は人手で抽出したものよりも文脈から情報を補完できている割合が低い. さらに,ベースよりも精度が良かった 2 条件は文脈から情報を補完する割合が下がっている。また,例示の有無を比較 (ベース vs 例示無し)すると,例示なしの条件はベースより精度が低いものの文脈から情報を補完する割合は高いことが分かった (表 3 に太字で示す).このことから,このタスクにおいて LLM は与えた例を真似て表面的な抽出を行うことで,抽出の精度が上がる代わりに文脈からの情報の補完ができなくなってしまうことが分かった.
## 8 まとめ
本論文では,近年雑談システムにおいて活用されている話者の情報を,最先端とされている LLM がどの程度雑談から抽出できるか,抽出時にどの程度文脈を参照しているかを検証した.結果から,LLM は文脈が長くなると目標発話に注目して話者の情報を抽出することが困難となり,目標発話とは無関係な話者情報の抽出を多くしてしまうことが分かる.目標発話に注目させるための工夫を行っても,精度は上がるものの文脈の考慮を犠牲にしてしまうことが分かった. 今後は,目標発話と話者情報のペアを集めたデータセットを作成し,精度と文脈からの補完を両立させた話者情報の抽出を目指す。また,推論が必要な話者情報の分析等は今後の課題とする.
## 謝辞
本研究の一部は,JST 科学技術イノベーショ
ン創出に向けた大学フェローシップ創設事業 JPMJFS2101 の支援を受けたものです.
## 参考文献
[1] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics.
[2] Jing Xu, Arthur Szlam, and Jason Weston. Beyond goldfish memory: Long-term open-domain conversation. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 5180-5197, Dublin, Ireland, May 2022. Association for Computational Linguistics.
[3] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021.
[4] 川本稔己, 山崎天, 佐藤敏紀, 奥村学. 大規模汎用言語モデルによるペルソナを考慮した応答生成, May 2022.
[5] Rui Ribeiro, Joao Paulo Carvalho, and Luisa Coheur. PGTask: Introducing the task of profile generation from dialogues. In Svetlana Stoyanchev, Shafiq Joty, David Schlangen, Ondrej Dusek, Casey Kennington, and Malihe Alikhani, editors, Proceedings of the 24th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 183-189, Prague, Czechia, September 2023. Association for Computational Linguistics. | NLP-2024 | cc-by-4.0 | (C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/ |