File size: 1,807 Bytes
5355ccb 62819ce 5355ccb 62819ce 5355ccb 62819ce |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 |
---
base_model: mesolitica/gemma-2B-16k-instructions
inference: false
model_creator: mesolitica
model_name: Malaysian Gemma 2B 16k instructions (FPF on Malaysian context)
model_type: mistral
pipeline_tag: text-generation
prompt_template: <start_of_turn>user kwsp tu apa?<end_of_turn> <start_of_turn>model
quantized_by: prsyahmi
tags:
- finetuned
language:
- ms
---
<!-- markdownlint-disable MD041 -->
<!-- header start --><!-- header end -->
# Malaysian Gemma 2B 16k instructions - GGUF
- Model creator: [mesolotica](https://huggingface.co/mesolitica)
- Original model: [Gemma 2B 16k instructions (FPF on Malaysian context)](https://huggingface.co/mesolitica/gemma-2B-16k-instructions)
<!-- description start -->
## Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.
<!-- description end -->
<!-- prompt-template start -->
## Prompt template: Gemma
```
<start_of_turn>user
kwsp tu apa?<end_of_turn>
<start_of_turn>model
Kumpulan wang simpanan pekerja<end_of_turn>
<start_of_turn>user
kumpulan tu buat apa?<end_of_turn>
<start_of_turn>model
```
<!-- prompt-template end -->
<!-- README_GGUF.md-provided-files start -->
## Fail yang diberikan
Sila rujuk [Files and versions](https://huggingface.co/prsyahmi/malaysian-gemma-2B-16k-instructions-GGUF/tree/main)
<!-- README_GGUF.md-provided-files end -->
## Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.
<!-- footer end -->
-------
<!-- original-model-card start -->
<!-- original-model-card end --> |