TheBloke commited on
Commit
4bb4f04
1 Parent(s): 4c3f187

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +20 -15
README.md CHANGED
@@ -10,8 +10,9 @@ model_creator: VAGO solutions
10
  model_name: SauerkrautLM 70B v1
11
  model_type: llama
12
  pipeline_tag: text-generation
13
- prompt_template: "Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent\
14
- \ gibt hilfreiche, detaillierte und h\xF6fliche Antworten. \nUser: {prompt} \nAssistant:\n"
 
15
  quantized_by: TheBloke
16
  ---
17
  <!-- markdownlint-disable MD041 -->
@@ -67,12 +68,13 @@ It is supported by:
67
  <!-- repositories-available end -->
68
 
69
  <!-- prompt-template start -->
70
- ## Prompt template: Sauerkraut
71
 
72
  ```
73
- Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
74
- User: {prompt}
75
- Assistant:
 
76
 
77
  ```
78
 
@@ -138,9 +140,10 @@ prompts = [
138
  "What is 291 - 150?",
139
  "How much wood would a woodchuck chuck if a woodchuck could chuck wood?",
140
  ]
141
- prompt_template=f'''Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
142
- User: {prompt}
143
- Assistant:
 
144
  '''
145
 
146
  prompts = [prompt_template.format(prompt=prompt) for prompt in prompts]
@@ -182,9 +185,10 @@ from huggingface_hub import InferenceClient
182
  endpoint_url = "https://your-endpoint-url-here"
183
 
184
  prompt = "Tell me about AI"
185
- prompt_template=f'''Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
186
- User: {prompt}
187
- Assistant:
 
188
  '''
189
 
190
  client = InferenceClient(endpoint_url)
@@ -235,9 +239,10 @@ model = AutoAWQForCausalLM.from_quantized(model_name_or_path, fuse_layers=True,
235
  trust_remote_code=False, safetensors=True)
236
 
237
  prompt = "Tell me about AI"
238
- prompt_template=f'''Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
239
- User: {prompt}
240
- Assistant:
 
241
  '''
242
 
243
  print("*** Running model.generate:")
 
10
  model_name: SauerkrautLM 70B v1
11
  model_type: llama
12
  pipeline_tag: text-generation
13
+ prompt_template: "[INST] <<SYS>>\nEin Chat zwischen einem Benutzer und einem KI-Assistenten.\
14
+ \ Der KI-Assistent gibt hilfreiche, detaillierte und h\xF6fliche Antworten.\n<</SYS>>\n\
15
+ {prompt}[/INST]\n"
16
  quantized_by: TheBloke
17
  ---
18
  <!-- markdownlint-disable MD041 -->
 
68
  <!-- repositories-available end -->
69
 
70
  <!-- prompt-template start -->
71
+ ## Prompt template: Sauerkraut-Llama-2-Chat
72
 
73
  ```
74
+ [INST] <<SYS>>
75
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
76
+ <</SYS>>
77
+ {prompt}[/INST]
78
 
79
  ```
80
 
 
140
  "What is 291 - 150?",
141
  "How much wood would a woodchuck chuck if a woodchuck could chuck wood?",
142
  ]
143
+ prompt_template=f'''[INST] <<SYS>>
144
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
145
+ <</SYS>>
146
+ {prompt}[/INST]
147
  '''
148
 
149
  prompts = [prompt_template.format(prompt=prompt) for prompt in prompts]
 
185
  endpoint_url = "https://your-endpoint-url-here"
186
 
187
  prompt = "Tell me about AI"
188
+ prompt_template=f'''[INST] <<SYS>>
189
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
190
+ <</SYS>>
191
+ {prompt}[/INST]
192
  '''
193
 
194
  client = InferenceClient(endpoint_url)
 
239
  trust_remote_code=False, safetensors=True)
240
 
241
  prompt = "Tell me about AI"
242
+ prompt_template=f'''[INST] <<SYS>>
243
+ Ein Chat zwischen einem Benutzer und einem KI-Assistenten. Der KI-Assistent gibt hilfreiche, detaillierte und höfliche Antworten.
244
+ <</SYS>>
245
+ {prompt}[/INST]
246
  '''
247
 
248
  print("*** Running model.generate:")