Tanuki-8B-dpo-v1.0-GPTQ-4bit
概要
GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMであるweblab-GENIAC/Tanuki-8B-dpo-v1.0のGPTQ 4bit量子化モデルです。
キャリブレーションセットにはizumi-lab/wikipedia-ja-20230720からランダムサンプリングした1000件を利用しています。
モデルに関する詳細については元モデルをご確認ください。
- Downloads last month
- 256
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for team-hatakeyama-phase2/Tanuki-8B-dpo-v1.0-GPTQ-4bit
Base model
weblab-GENIAC/Tanuki-8B-dpo-v1.0