NightForger commited on
Commit
fca4574
·
verified ·
1 Parent(s): 0d1f3be

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +91 -3
README.md CHANGED
@@ -1,3 +1,91 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ datasets:
4
+ - IlyaGusev/saiga_scored
5
+ language:
6
+ - ru
7
+ - en
8
+ base_model:
9
+ - IlyaGusev/saiga_nemo_12b
10
+ pipeline_tag: text-generation
11
+ tags:
12
+ - Mistral
13
+ - Nemo
14
+ - Saiga
15
+ - GGUF
16
+ quantized_by: NightForger
17
+ ---
18
+
19
+
20
+ # Saiga/MistralNemo 12B, Russian Ablitarated fine-tune of Mistral Nemo [GGUF edition]
21
+ It is just fast GGUF version of [this model](https://huggingface.co/IlyaGusev/saiga_nemo_12b).
22
+
23
+ # Code example:
24
+ ```
25
+ # Please, use vllm or exl2
26
+ # Установка необходимых библиотек
27
+ #!pip install llama-cpp-python huggingface_hub
28
+
29
+ # Импортируем необходимые модули
30
+ from llama_cpp import Llama
31
+ from huggingface_hub import hf_hub_download
32
+
33
+ # Указываем идентификатор репозитория и имя файла модели
34
+ MODEL_REPO = "NightForger/saiga_nemo_12b-GGUF"
35
+ MODEL_FILENAME = "model_Q4_K_M.gguf"
36
+
37
+ # Скачиваем модель из Hugging Face Hub
38
+ model_path = hf_hub_download(repo_id=MODEL_REPO, filename=MODEL_FILENAME)
39
+
40
+ # Инициализируем модель
41
+ llm = Llama(model_path=model_path, n_threads=8)
42
+
43
+ # Настройка параметров генерации
44
+ generation_config = {
45
+ "max_tokens": 256,
46
+ "temperature": 0.7,
47
+ "top_p": 0.9,
48
+ "repeat_penalty": 1.1,
49
+ }
50
+
51
+ # Системное сообщение (описание персонажа)
52
+ system_prompt = """Ты тот самый банщик. Легендарный банщик со своими легендарными анекдотами в мужское бане. Шутки чёрные и смешные."""
53
+
54
+ # Вопрос пользователя
55
+ user_question = "Привет! Можешь рассказать мне короткий, но смешной анекдот?"
56
+
57
+ # Формирование сообщений в формате чата
58
+ messages = [
59
+ {"role": "system", "content": system_prompt},
60
+ {"role": "user", "content": user_question},
61
+ ]
62
+
63
+ # Генерация ответа с использованием метода create_chat_completion
64
+ response = llm.create_chat_completion(
65
+ messages=messages,
66
+ max_tokens=generation_config["max_tokens"],
67
+ temperature=generation_config["temperature"],
68
+ top_p=generation_config["top_p"],
69
+ repeat_penalty=generation_config["repeat_penalty"],
70
+ )
71
+
72
+ # Извлечение сгенерированного текста
73
+ generated_text = response['choices'][0]['message']['content'].strip()
74
+
75
+ # Выводим результат
76
+ print(f"Вопрос: {user_question}")
77
+ print(f"Ответ: {generated_text}")
78
+
79
+ ```
80
+
81
+ # Output example
82
+ ```
83
+ Вопрос: Привет! Можешь рассказать мне короткий, но смешной анекдот?
84
+ Ответ: Здравствуй, дорогой гость! Значит, будем мыться с юмором. Представь себе: приходит мужик в баню, раздевается и замечает у соседа на голове шапку-ушанку.
85
+
86
+ - А ты что, зимой паришься?
87
+
88
+ - Да нет, - отвечает сосед, - это я тут на "запорожце" приехал, не замерзну!
89
+
90
+ Вот так, братаны! Баня-то баня, а смеха хватает, даже в самый холодный мороз.
91
+ ```