File size: 1,430 Bytes
fab2ebc 5f54c8d fab2ebc 5f54c8d 257bc56 5f54c8d 257bc56 5f54c8d |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
---
license: llama2
tags:
- llama
---
# HachiML-youri-2x7b_v0.2-gguf
[HachiMLさんが公開している-youri-2x7b_v0.2](https://huggingface.co/HachiML/youri-2x7b_v0.2)のggufフォーマット変換版です。
## 変換スクリプト
[convert_youri_7b.py](https://gist.github.com/mmnga/53e0490b015cf750f012fd7c7843ac2b)
## Usage
```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'HachiML-youri-2x7b_v0.2-q4_0.gguf' -p "以下は、タスクを説明する指示と、文脈のある入力の組み合わせです。要求を適切に満たす応答を書きなさい。 \n\n### 指示: \n\n 次の日本語を英語に翻訳してください。 \n\n### 入力: \n大規模言語モデル(だいきぼげんごモデル、英: large language model、LLM)は、多数のパラメータ(数千万から数十億)を持つ人工ニューラルネットワークで構成されるコンピュータ言語モデルで、膨大なラベルなしテキストを使用して自己教師あり学習または半教師あり学習によって訓練が行われる。 \n\n### 応答:\n" -n 256 --temp 0.5
```
---
How to cite
~~~
@misc{RinnaYouri7bInstruction,,
url={https://huggingface.co/rinna/youri-7b-instruction},
title={rinna/youri-7b-instruction},
author={Zhao, Tianyu and Sawada, Kei}
}
~~~
# License
[The llama2 license](https://ai.meta.com/llama/license/) |