File size: 1,021 Bytes
065be83 c86eb89 065be83 c86eb89 f803b41 c86eb89 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
---
license: cc-by-nc-4.0
language:
- en
- ja
---
# c4ai-command-r-plus-gguf
[CohereForAIさんが公開しているc4ai-command-r-plus](https://huggingface.co/CohereForAI/c4ai-command-r-plus)のggufフォーマット変換版です。
imatrixのデータは[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用して作成しました。
## 分割されたファイルについて
q6_kやq8_0のファイルはサイズが大きく分割されているので結合する必要があります。
~~~bash
cat c4ai-command-r-plus-Q5_K_M.gguf.* > c4ai-command-r-plus-Q5_K_M.gguf
~~~
## Usage
```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'c4ai-command-r-plus-Q4_0.gguf' -p "<|START_OF_TURN_TOKEN|><|SYSTEM_TOKEN|>あなたは日本語を話すCommand-Rです<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|USER_TOKEN|>こんにちわ<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>" -n 128
```
|