--- base_model: weblab-GENIAC/Tanuki-8B-dpo-v1.0 datasets: - izumi-lab/wikipedia-ja-20230720 language: - ja - en library_name: transformers license: apache-2.0 tags: - japanese --- # Tanuki-8B-dpo-v1.0-GPTQ-8bit ## 概要 GENIAC 松尾研 LLM開発プロジェクトで開発されたLLMである[weblab-GENIAC/Tanuki-8B-dpo-v1.0](https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0)のGPTQ 8bit量子化モデルです。 キャリブレーションセットには[izumi-lab/wikipedia-ja-20230720](https://huggingface.co/datasets/izumi-lab/wikipedia-ja-20230720)からランダムサンプリングした1000件を利用しています。 モデルに関する詳細については[元モデル]((https://huggingface.co/weblab-GENIAC/Tanuki-8B-dpo-v1.0))をご確認ください。 この成果は、NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)の助成事業「ポスト5G情報通信システム基盤強化研究開発事業」(JPNP20017)の結果得られたものです。