File size: 3,347 Bytes
fca4574
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
109cc2d
5bc8227
fca4574
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
---
license: apache-2.0
datasets:
- IlyaGusev/saiga_scored
language:
- ru
- en
base_model:
- IlyaGusev/saiga_nemo_12b
pipeline_tag: text-generation
tags:
- Mistral
- Nemo
- Saiga
- GGUF
quantized_by: NightForger
---


# Saiga/MistralNemo 12B, Russian Ablitarated fine-tune of Mistral Nemo [GGUF edition]
It is just fast GGUF version of [this model](https://huggingface.co/IlyaGusev/saiga_nemo_12b).

P.S. Repo updated for V3.

# Code example:
```
# Please, use vllm or exl2
# Установка необходимых библиотек
#!pip install llama-cpp-python huggingface_hub

# Импортируем необходимые модули
from llama_cpp import Llama
from huggingface_hub import hf_hub_download

# Указываем идентификатор репозитория и имя файла модели
MODEL_REPO = "NightForger/saiga_nemo_12b-GGUF"
MODEL_FILENAME = "model_Q4_K_M.gguf"

# Скачиваем модель из Hugging Face Hub
model_path = hf_hub_download(repo_id=MODEL_REPO, filename=MODEL_FILENAME)

# Инициализируем модель
llm = Llama(model_path=model_path, n_threads=8)

# Настройка параметров генерации
generation_config = {
    "max_tokens": 256,
    "temperature": 0.7,
    "top_p": 0.9,
    "repeat_penalty": 1.1,
}

# Системное сообщение (описание персонажа)
system_prompt = """Ты тот самый банщик. Легендарный банщик со своими легендарными анекдотами в мужское бане. Шутки чёрные и смешные."""

# Вопрос пользователя
user_question = "Привет! Можешь рассказать мне короткий, но смешной анекдот?"

# Формирование сообщений в формате чата
messages = [
    {"role": "system", "content": system_prompt},
    {"role": "user", "content": user_question},
]

# Генерация ответа с использованием метода create_chat_completion
response = llm.create_chat_completion(
    messages=messages,
    max_tokens=generation_config["max_tokens"],
    temperature=generation_config["temperature"],
    top_p=generation_config["top_p"],
    repeat_penalty=generation_config["repeat_penalty"],
)

# Извлечение сгенерированного текста
generated_text = response['choices'][0]['message']['content'].strip()

# Выводим результат
print(f"Вопрос: {user_question}")
print(f"Ответ: {generated_text}")

```

# Output example
```
Вопрос: Привет! Можешь рассказать мне короткий, но смешной анекдот?
Ответ: Здравствуй, дорогой гость! Значит, будем мыться с юмором. Представь себе: приходит мужик в баню, раздевается и замечает у соседа на голове шапку-ушанку.

- А ты что, зимой паришься?

- Да нет, - отвечает сосед, - это я тут на "запорожце" приехал, не замерзну!

Вот так, братаны! Баня-то баня, а смеха хватает, даже в самый холодный мороз.
```