Edit model card

What is this?

Google公式の日本語版Gemma 2 2Bであるgemma-2-2b-jpn-itをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、imatrixの算出においてはf32精度のモデルを使用しました。これは、本来の数値精度であるbf16でのimatrix計算に現行のCUDA版llama.cppが対応していないためです。

Chat template

<start_of_turn>user
ここにpromptを書きます<end_of_turn>
<start_of_turn>model

Environment

Windows版llama.cpp-b3621およびllama.cpp-b3472同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

gemma license

Developer

Google

Downloads last month
713
GGUF
Model size
2.61B params
Architecture
gemma2

4-bit

5-bit

6-bit

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .