aixsatoshi commited on
Commit
f416eaa
·
verified ·
1 Parent(s): fbe66e7

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +5 -0
README.md CHANGED
@@ -3,13 +3,18 @@ license: llama3
3
  ---
4
  **モデル概要**
5
  Llama-3-8b-Cosmopedia-japaneseモデルは、優れた性能を認められているLlama-3-8bモデルの日本語ドメインへの適応を目的として設計しました。
 
6
  Llama-3-8bはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があります。
7
  日本語での問いかけに対しても英語で返答するバイアスが強く、日本語でのパフォーマンスが劣っていました。
 
8
  私たちの目標は、Llama-3-8bの高度な論理的推論能力を損なうことなく、日本語に適応させることでした。
9
 
10
  **外部翻訳システムを利用したトレーニングと開発**
11
  適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。
 
12
  cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。
 
13
  しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。
14
  この日本語化cosmopediaデータを使用してLlama-3-8bモデルの追加トレーニングを行うことで日本語ドメインへの適応を図りました。
 
15
  Llama-3-8bの論理的推論能力を日本語のコンテキストに円滑に移行させ、アウトプット言語のバイアスを日本語方向に移動させることを意図しています。
 
3
  ---
4
  **モデル概要**
5
  Llama-3-8b-Cosmopedia-japaneseモデルは、優れた性能を認められているLlama-3-8bモデルの日本語ドメインへの適応を目的として設計しました。
6
+
7
  Llama-3-8bはその高い能力にも関わらず、英語と日本語の推論結果には顕著な差があります。
8
  日本語での問いかけに対しても英語で返答するバイアスが強く、日本語でのパフォーマンスが劣っていました。
9
+
10
  私たちの目標は、Llama-3-8bの高度な論理的推論能力を損なうことなく、日本語に適応させることでした。
11
 
12
  **外部翻訳システムを利用したトレーニングと開発**
13
  適応戦略として、高性能でライセンスがApache2.0のMixtralを利用したcosmopediaという合成データセットを利用しました。
14
+
15
  cosmopediaには、高品質なMixtral8x7Bのアウトプットのみで構成されており、推論能力の中核を凝縮した余計なノイズを含まないことが特徴です。
16
+
17
  しかしcosmopediaは英語で構成されており、Mixtral自身も日本語表現を苦手とすることから、まず外部の翻訳システムを通じて日本語に翻訳しています。
18
  この日本語化cosmopediaデータを使用してLlama-3-8bモデルの追加トレーニングを行うことで日本語ドメインへの適応を図りました。
19
+
20
  Llama-3-8bの論理的推論能力を日本語のコンテキストに円滑に移行させ、アウトプット言語のバイアスを日本語方向に移動させることを意図しています。