metadata
base_model: mesolitica/mallam-5b-20k-instructions-v2
inference: false
model_creator: mesolitica
model_name: Mallam 5B 20k Instructions v2
model_type: mistral
pipeline_tag: text-generation
prompt_template: >-
<s>[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response.
</s>[INST] This is the second user input. [/INST]
quantized_by: prsyahmi
tags:
- finetuned
language:
- ms
Mallam 5B 20k Instructions v2 - GGUF
- Model creator: mesolotica
- Original model: Mallam 5B 20k Instructions v2
Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.
Prompt template: Mistral
<s>[INST] This is a system prompt.
This is the first user input. [/INST] This is the first assistant response.
</s>[INST] This is the second user input. [/INST]
Fail yang diberikan
Sila rujuk Files and versions
Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.