Edit model card

Ninja-V2-7B

このモデルは、ベクトルマージなどを用い作成された高性能ベースモデルです。 用途はチャットのみならず、文章創作など幅広いタスクに対応できます。

このモデルは、ローカルLLMに向き合う会企画のLocalAIハッカソンの高性能GPUサーバーの助けを借りて作成されました。

関係者の皆様に感謝申し上げます。

作成方法

モデルレシピは下記の通りです。

Ninja-v2-Base (mergekitにて作成)

models:
  - model: MTSAIR/multi_verse_model
  - model: HuggingFaceH4/zephyr-7b-beta
merge_method: model_stock
base_model: amazingvince/Not-WizardLM-2-7B
dtype: bfloat16

Novels-7B(ninja_mergerにて作成)

target_model: "stabilityai/japanese-stablelm-instruct-gamma-7b"
  -
    left:  "Elizezen/Phos-7B"          # ベースモデルの指定
    right: "stabilityai/japanese-stablelm-instruct-gamma-7b"        # サブモデルの指定
    operation: "sub"                             # 組み合わせの操作。"mix"、"add"などを指定
    velocity: 1.0

  -
    left:  "Elizezen/Antler-7B"          # ベースモデルの指定
    right: "stabilityai/japanese-stablelm-instruct-gamma-7b"        # サブモデルの指定
    operation: "sub"                             # 組み合わせの操作。"mix"、"add"などを指定
    velocity: 1.0

Ninja-v2(ninja_mergerにて作成)

target_model: "Ninja-v2-Base"
models:                                     # 組み合わせの重み。0.0から1.0の範囲で指定
  -
    left:  "NTQAI/chatntq-ja-7b-v1.0"          # ベースモデルの指定
    right: "mistralai/Mistral-7B-v0.1"        # サブモデルの指定0
    operation: "sub"                        # 組み合わせの操作。"mix"、"add"などを指定
    velocity: 1.0
  -
    left:  "Elizezen/Berghof-NSFW-7B"          # ベースモデルの指定
    right: "stabilityai/japanese-stablelm-instruct-gamma-7b"        # サブモデルの指定
    operation: "sub"                             # 組み合わせの操作。"mix"、"add"などを指定
    velocity: 0.5
  -
    left:  "Novels-7B"          # ベースモデルの指定
    right: "stabilityai/japanese-stablelm-instruct-gamma-7b"        # サブモデルの指定
    operation: "sub"                             # 組み合わせの操作。"mix"、"add"などを指定
    velocity: 1.0

プロンプトテンプレート

必須ではありませんが、Vicuna-1.1テンプレートを使用することができます。 単純な文章生成においては推奨のテンプレートはありません。

システムプロンプト

  • BAD: あなたは○○として振る舞います

  • GOOD: あなたは○○です

  • BAD: あなたは○○ができます

  • GOOD: あなたは○○をします

制限

Apache-2.0ライセンスに従い使用してください。

Downloads last month
45
Safetensors
Model size
7.24B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for Local-Novel-LLM-project/Ninja-V2-7B

Merges
2 models
Quantizations
1 model

Spaces using Local-Novel-LLM-project/Ninja-V2-7B 5

Collection including Local-Novel-LLM-project/Ninja-V2-7B