|
--- |
|
language: |
|
- ja |
|
tags: |
|
- mistral |
|
- mixtral |
|
- not-for-all-audiences |
|
- nsfw |
|
pipeline_tag: text-generation |
|
--- |
|
|
|
# chatntq_chatvector-MoE-Antler_chatvector-2x7B-GGUF |
|
|
|
[Sdff-Ltba/chatntq_chatvector-MoE-Antler_chatvector-2x7B](https://huggingface.co/Sdff-Ltba/chatntq_chatvector-MoE-Antler_chatvector-2x7B)をGGUF変換したものです。 |
|
iMatrixを併用して量子化しています。 |
|
|
|
## 量子化手順 |
|
|
|
以下の通りに実行しました。 |
|
``` |
|
python ./llama.cpp/convert.py ./chatntq_chatvector-MoE-Antler_chatvector-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf |
|
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32 |
|
./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./chatntq_chatvector-MoE-Antler_chatvector-2x7B_iq3xxs.gguf iq3_xxs |
|
``` |
|
|
|
## 環境 |
|
|
|
- CPU: Ryzen 5 5600X |
|
- GPU: GeForce RTX 3060 12GB |
|
- RAM: DDR4-3200 96GB |
|
- OS: Windows 10 |
|
- software: Python 3.12.2、[KoboldCpp](https://github.com/LostRuins/koboldcpp) v1.61.2 |
|
|
|
#### KoboldCppの設定 |
|
|
|
(デフォルトから変更したもののみ記載) |
|
- `GPU Layers: 33` (33以上でフルロード) |
|
- `Context Size: 32768` |
|
|