Sdff-Ltba commited on
Commit
757966a
1 Parent(s): aa7362b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -2
README.md CHANGED
@@ -12,11 +12,12 @@ pipeline_tag: text-generation
12
  # LightChatAssistant-2x7B-GGUF
13
 
14
  [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
15
- iMatrixを併用して量子化しています。
 
16
 
17
  ## 量子化手順
18
 
19
- 以下の通りに実行しました。
20
  ```
21
  python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
22
  ./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
 
12
  # LightChatAssistant-2x7B-GGUF
13
 
14
  [Sdff-Ltba/LightChatAssistant-2x7B](https://huggingface.co/Sdff-Ltba/LightChatAssistant-2x7B)をGGUF変換したものです。
15
+ iQ3_XXSはiMatrixを併用して量子化しています。(それ以外はiMatrix非適用です)
16
+ ※製作者は本モデルを使うときはiQ3_XXSを使用しています。
17
 
18
  ## 量子化手順
19
 
20
+ 以下の通りに実行しました。(iMatrixを併用してiQ3_XXSにする場合)
21
  ```
22
  python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
23
  ./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32