File size: 1,646 Bytes
3ca404b 54e94f4 3ca404b 54e94f4 3ca404b 54e94f4 3ca404b 9d03f6d 2b19704 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
---
base_model: weblab-GENIAC/Tanuki-8x8B-dpo-v1.0
datasets:
- izumi-lab/wikipedia-ja-20230720
language:
- ja
- en
library_name: transformers
license: apache-2.0
tags:
- japanese
---
# Tanuki-8x8B-dpo-v1.0-GPTQ-4bit
## 概要
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 4bit量子化モデルです。
キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。
## 情報提供
この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoGPTQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoGPTQを[こちら](https://github.com/team-hatakeyama-phase2/AutoGPTQ)で公開しています。
また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。
これを以下のようにソースからビルドし推論に利用してください。
```bash
git clone https://github.com/team-hatakeyama-phase2/vllm.git
cd vllm
LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e .
```
モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。 |