GGUF
English
Japanese
Inference Endpoints
File size: 1,327 Bytes
e8d194e
68570a6
e8d194e
 
 
 
94c9b69
 
e8d194e
 
 
68570a6
e8d194e
94c9b69
 
 
 
7691fcd
 
 
 
 
 
 
 
 
 
e8d194e
 
 
 
 
 
94c9b69
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
---
license: gemma
language:
- en
- ja
datasets:
- kunishou/amenokaku-code-instruct
- TokenBender/code_instructions_122k_alpaca_style
---

# codegemma-1.1-2b-gguf
[googleさんが公開しているcodegemma-1.1-2b](https://huggingface.co/google/codegemma-1.1-2b)のggufフォーマット変換版です。  

imatrixのデータは  
[kunishou/amenokaku-code-instruct](https://huggingface.co/datasets/kunishou/amenokaku-code-instruct)  
[TokenBender/code_instructions_122k_alpaca_style](https://huggingface.co/datasets/TokenBender/code_instructions_122k_alpaca_style)  
から1000ずつサンプリングしたデータを使用して作成しました。  

## 他のモデル
[mmnga/codegemma-1.1-7b-it-gguf](https://huggingface.co/mmnga/codegemma-1.1-7b-it-gguf)  
[mmnga/codegemma-1.1-2b-gguf](https://huggingface.co/mmnga/codegemma-1.1-2b-gguf)  
[mmnga/gemma-2b-it-gguf](https://huggingface.co/mmnga/gemma-2b-it-gguf)  
[mmnga/gemma-7b-it-gguf](https://huggingface.co/mmnga/gemma-7b-it-gguf)  
[mmnga/gemma-1.1-7b-it-gguf](https://huggingface.co/mmnga/gemma-1.1-7b-it-gguf)  
[mmnga/codegemma-7b-it-gguf](https://huggingface.co/mmnga/codegemma-7b-it-gguf)  


## Usage

```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'codegemma-1.1-2b-Q4_0.gguf' -n 128 -p 'Write Hello World.'
```