File size: 1,910 Bytes
62e48e5
 
 
bd9219f
8eb42a0
f416eaa
08dee86
ba7e545
f416eaa
110f458
62e48e5
bd9219f
8eb42a0
f416eaa
cd41a81
edc37d4
8eb42a0
f416eaa
8eb42a0
cd41a81
 
 
 
8eb42a0
f416eaa
00aa8fd
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
---
license: llama3
---
**モデル概要**  
Llama-3-8b-Cosmopedia-japaneseモデルは、優れた性能を認められているLlama-3-8bモデルの日本語ドメインへの適応を目的として設計しました。

Llama-3-8bはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があります。
日本語での問いかけに対しても英語で返答するバイアスが強く、日本語でのパフォーマンスが劣っていました。

Llama-3-8bの高度な論理的推論能力を損なうことなく、日本語に適応させることを目標としました。

**外部翻訳システムを利用したトレーニングと開発**   
適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。

* [HuggingFaceTB/cosmopedia](HuggingFaceTB/cosmopedia)  

cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。

しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。

* [aixsatoshi/cosmopedia-japanese-100k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-100k)  
* [aixsatoshi/cosmopedia-japanese-20k](https://huggingface.co/datasets/aixsatoshi/cosmopedia-japanese-20k)

この日本語化cosmopediaデータを使用してLlama-3-8bモデルの追加トレーニングを行うことで日本語ドメインへの適応を図りました。

Llama-3-8bの論理的推論能力を日本語のコンテキストに円滑に移行させ、アウトプット言語のバイアスを日本語方向に移動させることを目標としています。