Update README.md
Browse files
README.md
CHANGED
@@ -22,7 +22,7 @@ language:
|
|
22 |
|
23 |
|
24 |
这里提供了共四个量化后的模型权重(下面按量化后的性能排序):
|
25 |
-
- [AutoGPTQ-8bit-
|
26 |
- [AutoAWQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-AWQ/tree/main) 使用AWQ方式进行4bit量化,比GPTQ-4bit生成质量优秀,但兼容性不如GPTQ
|
27 |
- [AutoGPTQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/main) 使用GPTQ方式进行4bit量化,使用了Group size 32,比默认设置量化的效果更优秀。
|
28 |
- [AutoGPTQ-4bit-128gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/4bits-gps128-descactF) 使用GPTQ方式进行4bit量化,使用了AutoGPTQ的默认设置。
|
|
|
22 |
|
23 |
|
24 |
这里提供了共四个量化后的模型权重(下面按量化后的性能排序):
|
25 |
+
- [AutoGPTQ-8bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/8bits-gps32) 使用GPTQ方式进行8bit量化,拥有最高的生成质量。
|
26 |
- [AutoAWQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-AWQ/tree/main) 使用AWQ方式进行4bit量化,比GPTQ-4bit生成质量优秀,但兼容性不如GPTQ
|
27 |
- [AutoGPTQ-4bit-32gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/main) 使用GPTQ方式进行4bit量化,使用了Group size 32,比默认设置量化的效果更优秀。
|
28 |
- [AutoGPTQ-4bit-128gs](https://huggingface.co/ECj/Yi-6B-200K-GPTQ/tree/4bits-gps128-descactF) 使用GPTQ方式进行4bit量化,使用了AutoGPTQ的默认设置。
|