Update README.md
Browse files
README.md
CHANGED
@@ -30,7 +30,7 @@ python ./llama.cpp/convert.py ./LightChatAssistant-TypeB-2x7B --outtype f16 --ou
|
|
30 |
|
31 |
## おすすめ量子化タイプ(VRAM12GBの場合)
|
32 |
|
33 |
-
- 容量対精度に優れる: iQ4XS (製作者おすすめ)
|
34 |
- ContextSizeを32768にしつつVRAMにフルロード: iQ3XXS
|
35 |
- 精度重視: Q6K or Q8
|
36 |
|
|
|
30 |
|
31 |
## おすすめ量子化タイプ(VRAM12GBの場合)
|
32 |
|
33 |
+
- 容量対精度に優れる: iQ4XS or Q4KM (製作者おすすめ)
|
34 |
- ContextSizeを32768にしつつVRAMにフルロード: iQ3XXS
|
35 |
- 精度重視: Q6K or Q8
|
36 |
|