File size: 1,646 Bytes
3ca404b
54e94f4
 
 
 
 
 
3ca404b
54e94f4
 
 
3ca404b
54e94f4
 
 
 
3ca404b
9d03f6d
 
 
 
 
 
 
 
 
 
 
 
2b19704
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
---
base_model: weblab-GENIAC/Tanuki-8x8B-dpo-v1.0
datasets:
- izumi-lab/wikipedia-ja-20230720
language:
- ja
- en
library_name: transformers
license: apache-2.0
tags:
- japanese
---
# Tanuki-8x8B-dpo-v1.0-GPTQ-4bit
## 概要
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8x8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)のGPTQ 4bit量子化モデルです。  
キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。

## 情報提供
この元モデルは独自アーキテクチャを持つモデルであるため、変換のためにAutoGPTQライブラリの一部改変が必要となりました。本モデルの変換に必要な改変を施したAutoGPTQを[こちら](https://github.com/team-hatakeyama-phase2/AutoGPTQ)で公開しています。

また、同様の理由で本モデルをvLLMを使って推論する際にはvLLMライブラリの一部改変が必要となります。本モデルの推論に必要な改変を施したvLLMを[こちら](https://github.com/team-hatakeyama-phase2/vllm)で公開しています。  
これを以下のようにソースからビルドし推論に利用してください。

```bash
git clone https://github.com/team-hatakeyama-phase2/vllm.git
cd vllm
LD_LIBRARY_PATH="" MAX_JOBS=16 pip install -e .
```

モデルに関する詳細については[元モデル](https://huggingface.co/weblab-GENIAC/Tanuki-8x8B-dpo-v1.0)をご確認ください。