File size: 4,370 Bytes
6af4e89 2b62366 6de229e 6af4e89 2b62366 6af4e89 ae0e4da 6af4e89 2b62366 6af4e89 2b62366 6af4e89 546f9bf 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 ae0e4da db68e4c ae0e4da d0cb8f4 ae0e4da d0cb8f4 ae0e4da d0cb8f4 dfc12cf d0cb8f4 ae0e4da d0cb8f4 7b9058a ae0e4da d0cb8f4 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6af4e89 2b62366 6de229e |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 |
---
library_name: transformers
tags:
- unsloth
- japanese
- llm-jp
- lora
datasets:
- GENIAC-Team-Ozaki/Hachi-Alpaca_newans
- llm-jp/magpie-sft-v1.0
language:
- ja
base_model:
- llm-jp/llm-jp-3-13b
license: apache-2.0
---
# llm-jp-3-13b-SFT-LoRA モデルカード
llm-jp-3-13bをベースに、QLoRAとUnslothを用いてファインチューニングを行った日本語言語モデルです。
## モデルの詳細
### モデルの説明
- **開発者:** shakebenn
- **共有者:** shakebenn
- **モデルタイプ:** 言語モデル(デコーダーのみ)
- **言語:** 日本語
- **ライセンス:** ベースモデルに準拠
- **ベースモデル:** llm-jp/llm-jp-3-13b
### モデルソース
- **リポジトリ:** https://huggingface.co/llm-jp/llm-jp-3-13b
## 推論コードの使用方法
1. ファイルのダウンロード、準備
- [Kota-Ohno/LLM_saisyukadai](https://github.com/Kota-Ohno/LLM_saisyukadai)から「Model_Inference_v5.ipynb」と「tokenizer.model」、「elyza-tasks-100-TV_0.jsonl」をダウンロードします。
- 「tokenizer.model」に関しては、[llm-jp/llm-jp-tokenizer](https://github.com/llm-jp/llm-jp-tokenizer)から「llm-jp-tokenizer-100k.ver3.0b1.model」をダウンロードして、「tokenizer.model」という名前でリネームしても構いません。
- google colabで「Model_Inference_v5.ipynb」を開き、ランタイムをL4に設定します。
2. 必要なライブラリのインストール
- terminalを開き、以下のコードを順番に実行します。
```bash
apt-get install git-lfs
git lfs install
```
```bash
git clone https://github.com/ggerganov/llama.cpp
```
```bash
pip install -r ./llama.cpp/requirements.txt
```
3. モデルのダウンロード
```bash
git clone https://huggingface.co/llm-jp/llm-jp-3-13b
```
- 「tokenizer.model」ファイルを「llm-jp-3-13b」ディレクトリに配置します
4. モデルの変換
- 以下のコードを順番に実行します。
```bash
python ./llama.cpp/convert_hf_to_gguf.py --outfile llm-jp-3-13b.gguf llm-jp-3-13b
```
```bash
cd llama.cpp
mkdir build
cd build
cmake ..
cmake --build .
cd ../
cd ../
```
```bash
./llama.cpp/build/bin/llama-quantize ./llm-jp-3-13b.gguf ./llm-jp-3-13b-q8_0.gguf q8_0
```
```bash
git clone https://huggingface.co/shakebenn/llm-jp-3-13b-SFT-LoRA
python ./llama.cpp/convert_lora_to_gguf.py --base llm-jp-3-13b --outfile ./llm-jp-3-13b-SFT-LoRA.gguf llm-jp-3-13b-SFT-LoRA
```
4. 推論の実行
- 「elyza-tasks-100-TV_0.jsonl」を推論コードと同階層にコピーする
- 推論コード(Model_Inference_v5.ipynb)のすべてのセルを実行する
### 直接利用
このモデルは以下のような用途に適しています:
- 質問応答
- テキスト生成
- 文章要約
- その他の自然言語処理タスク
### 対象外の使用
以下の用途での使用は推奨されません:
- 商用利用
- 重要な意思決定
- 医療・法律アドバイス
- 有害なコンテンツの生成
## バイアス、リスク、制限事項
- 学習データに起因するバイアスが存在する可能性があります
- 事実と異なる情報を生成する可能性があります
- 有害なコンテンツを生成する可能性があります
### 推奨事項
- 出力内容の検証を必ず行ってください
- センシティブな用途での使用は避けてください
- 生成された内容の責任は使用者が負うものとします
## モデルの使用開始方法
## 学習の詳細
### 学習データ
以下のデータセットを使用:
- GENIAC-Team-Ozaki/Hachi-Alpaca_newans
- llm-jp/magpie-sft-v1.0
### 学習手順
#### 前処理
- 指示文と回答のペアにフォーマット
- コンテキスト長を512トークンに制限
#### 学習ハイパーパラメータ
- **学習手法:** QLoRA with Unsloth
- **量子化:** 4-bit
- **LoRA設定:**
- rank (r): 32
- alpha: 32
- dropout: 0.05
- target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]
- **トレーニング設定:**
- バッチサイズ: 2
- 勾配累積: 4
- エポック数: 1
- 学習率: 2e-4
- シーケンス長: 512 |