Text Generation
Transformers
Safetensors
Japanese
mistral
roleplay
Inference Endpoints
text-generation-inference
Ninja-v1-RP-WIP / README.md
Aratako's picture
Update README.md
bac3426 verified
metadata
license: apache-2.0
datasets:
  - Aratako/Rosebleu-1on1-Dialogues-RP
  - Aratako/LimaRP-augmented-ja-karakuri
  - grimulkan/LimaRP-augmented
  - Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja
  - SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed
  - OmniAICreator/Japanese-Roleplay
language:
  - ja
library_name: transformers
tags:
  - roleplay
base_model:
  - Local-Novel-LLM-project/Ninja-v1-NSFW

Ninja-v1-RP-WIP

概要

Local-Novel-LLM-project/Ninja-v1-NSFWをロールプレイ用にLoRAでファインチューニングしたモデルです。

Aratako/Ninja-v1-RPのベースとなるモデルとして利用しています。

プロンプトフォーマット

Vicunaのchat templateを利用してください。また、設定などを渡すシステムプロンプトは最初のUSER: より前に入力されることを想定しています。

また、マルチターンの対話を行う場合各ターンのアシスタントの応答の末尾にeos_tokenを必ずつけてください。

{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}
USER: {userの最初の入力}
ASSISTANT: 

学習データセット

GPTやLlama2等の出力の学習利用時に問題があるモデルを使って作成されたデータセットは一切使っていません。

日本語データセット

英語データセット

学習の設定

RunpodでGPUサーバを借り、A6000x4で学習を行いました。主な学習パラメータは以下の通りです。

  • lora_r: 128
  • lisa_alpha: 256
  • lora_dropout: 0.05
  • lora_target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", "lm_head"]
  • learning_rate: 2e-5
  • num_train_epochs: 3 epochs
  • batch_size: 64
  • max_seq_length: 4096