NightForger
commited on
Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,91 @@
|
|
1 |
-
---
|
2 |
-
license: apache-2.0
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: apache-2.0
|
3 |
+
datasets:
|
4 |
+
- IlyaGusev/saiga_scored
|
5 |
+
language:
|
6 |
+
- ru
|
7 |
+
- en
|
8 |
+
base_model:
|
9 |
+
- IlyaGusev/saiga_nemo_12b
|
10 |
+
pipeline_tag: text-generation
|
11 |
+
tags:
|
12 |
+
- Mistral
|
13 |
+
- Nemo
|
14 |
+
- Saiga
|
15 |
+
- GGUF
|
16 |
+
quantized_by: NightForger
|
17 |
+
---
|
18 |
+
|
19 |
+
|
20 |
+
# Saiga/MistralNemo 12B, Russian Ablitarated fine-tune of Mistral Nemo [GGUF edition]
|
21 |
+
It is just fast GGUF version of [this model](https://huggingface.co/IlyaGusev/saiga_nemo_12b).
|
22 |
+
|
23 |
+
# Code example:
|
24 |
+
```
|
25 |
+
# Please, use vllm or exl2
|
26 |
+
# Установка необходимых библиотек
|
27 |
+
#!pip install llama-cpp-python huggingface_hub
|
28 |
+
|
29 |
+
# Импортируем необходимые модули
|
30 |
+
from llama_cpp import Llama
|
31 |
+
from huggingface_hub import hf_hub_download
|
32 |
+
|
33 |
+
# Указываем идентификатор репозитория и имя файла модели
|
34 |
+
MODEL_REPO = "NightForger/saiga_nemo_12b-GGUF"
|
35 |
+
MODEL_FILENAME = "model_Q4_K_M.gguf"
|
36 |
+
|
37 |
+
# Скачиваем модель из Hugging Face Hub
|
38 |
+
model_path = hf_hub_download(repo_id=MODEL_REPO, filename=MODEL_FILENAME)
|
39 |
+
|
40 |
+
# Инициализируем модель
|
41 |
+
llm = Llama(model_path=model_path, n_threads=8)
|
42 |
+
|
43 |
+
# Настройка параметров генерации
|
44 |
+
generation_config = {
|
45 |
+
"max_tokens": 256,
|
46 |
+
"temperature": 0.7,
|
47 |
+
"top_p": 0.9,
|
48 |
+
"repeat_penalty": 1.1,
|
49 |
+
}
|
50 |
+
|
51 |
+
# Системное сообщение (описание персонажа)
|
52 |
+
system_prompt = """Ты тот самый банщик. Легендарный банщик со своими легендарными анекдотами в мужское бане. Шутки чёрные и смешные."""
|
53 |
+
|
54 |
+
# Вопрос пользователя
|
55 |
+
user_question = "Привет! Можешь рассказать мне короткий, но смешной анекдот?"
|
56 |
+
|
57 |
+
# Формирование сообщений в формате чата
|
58 |
+
messages = [
|
59 |
+
{"role": "system", "content": system_prompt},
|
60 |
+
{"role": "user", "content": user_question},
|
61 |
+
]
|
62 |
+
|
63 |
+
# Генерация ответа с использованием метода create_chat_completion
|
64 |
+
response = llm.create_chat_completion(
|
65 |
+
messages=messages,
|
66 |
+
max_tokens=generation_config["max_tokens"],
|
67 |
+
temperature=generation_config["temperature"],
|
68 |
+
top_p=generation_config["top_p"],
|
69 |
+
repeat_penalty=generation_config["repeat_penalty"],
|
70 |
+
)
|
71 |
+
|
72 |
+
# Извлечение сгенерированного текста
|
73 |
+
generated_text = response['choices'][0]['message']['content'].strip()
|
74 |
+
|
75 |
+
# Выводим результат
|
76 |
+
print(f"Вопрос: {user_question}")
|
77 |
+
print(f"Ответ: {generated_text}")
|
78 |
+
|
79 |
+
```
|
80 |
+
|
81 |
+
# Output example
|
82 |
+
```
|
83 |
+
Вопрос: Привет! Можешь рассказать мне короткий, но смешной анекдот?
|
84 |
+
Ответ: Здравствуй, дорогой гость! Значит, будем мыться с юмором. Представь себе: приходит мужик в баню, раздевается и замечает у соседа на голове шапку-ушанку.
|
85 |
+
|
86 |
+
- А ты что, зимой паришься?
|
87 |
+
|
88 |
+
- Да нет, - отвечает сосед, - это я тут на "запорожце" приехал, не замерзну!
|
89 |
+
|
90 |
+
Вот так, братаны! Баня-то баня, а смеха хватает, даже в самый холодный мороз.
|
91 |
+
```
|