File size: 1,021 Bytes
065be83
 
c86eb89
 
 
065be83
c86eb89
 
 
 
 
f803b41
 
 
 
 
 
 
 
c86eb89
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
---
license: cc-by-nc-4.0
language:
- en
- ja
---
# c4ai-command-r-plus-gguf 
[CohereForAIさんが公開しているc4ai-command-r-plus](https://huggingface.co/CohereForAI/c4ai-command-r-plus)のggufフォーマット変換版です。

imatrixのデータは[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用して作成しました。  

## 分割されたファイルについて
q6_kやq8_0のファイルはサイズが大きく分割されているので結合する必要があります。  

~~~bash
cat c4ai-command-r-plus-Q5_K_M.gguf.* > c4ai-command-r-plus-Q5_K_M.gguf
~~~


## Usage

```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'c4ai-command-r-plus-Q4_0.gguf' -p "<|START_OF_TURN_TOKEN|><|SYSTEM_TOKEN|>あなたは日本語を話すCommand-Rです<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|USER_TOKEN|>こんにちわ<|END_OF_TURN_TOKEN|><|START_OF_TURN_TOKEN|><|CHATBOT_TOKEN|>" -n 128
```