Spaces:
Paused
Paused
Rijgersberg
commited on
Commit
•
62a1d3b
1
Parent(s):
3bd8d8b
Update app.py
Browse files
app.py
CHANGED
@@ -14,7 +14,7 @@ DEFAULT_MAX_NEW_TOKENS = 1024
|
|
14 |
MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "8192"))
|
15 |
|
16 |
if torch.cuda.is_available():
|
17 |
-
model_id = "
|
18 |
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
|
19 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
20 |
|
@@ -64,7 +64,7 @@ def generate(
|
|
64 |
chat_interface = gr.ChatInterface(
|
65 |
fn=generate,
|
66 |
chatbot=gr.Chatbot(height=450,
|
67 |
-
label="
|
68 |
show_share_button=True,
|
69 |
avatar_images=(None, 'geitje-logo.jpg')),
|
70 |
# textbox=gr.Textbox(value="Typ een bericht…"),
|
@@ -134,16 +134,8 @@ Twee van de wortelbedrijven werkten mee door meer informatie over de ongeoorloof
|
|
134 |
```
|
135 |
Vat bovenstaand artikel samen"""]
|
136 |
],
|
137 |
-
title="
|
138 |
-
description="""
|
139 |
-
|
140 |
-
Generatieve taalmodellen maken fouten, controleer daarom feiten voordat je ze overneemt. GEITje-chat is niet uitgebreid getraind om _gealigned_ te zijn met menselijke waarden. Het is daarom mogelijk dat het problematische output genereert, zeker als het daartoe _geprompt_ wordt.
|
141 |
-
|
142 |
-
Voor meer info over GEITje: zie de <a href="https://github.com/Rijgersberg/GEITje">📄 README op GitHub</a>.
|
143 |
-
|
144 |
-
<b>NIEUW</b>: probeer ook <a href="https://huggingface.co/BramVanroy">@BramVanroy</a>'s verbeterde chatbot <a href="https://huggingface.co/spaces/BramVanroy/GEITje-7B-ultra">GEITje-7B-ultra</a>!
|
145 |
-
|
146 |
-
<b>ZeroGPU</b>: De demo draait vanaf nu op de nieuwe gratis dynamische <a href="https://huggingface.co/zero-gpu-explorers">ZeroGPUs</a> van Hugging Face. Daarmee blijft de demo nu langer beschikbaar, maar kan het wel een paar seconden duren voordat je antwoord krijgt op je eerste vraag.""",
|
147 |
submit_btn="Genereer",
|
148 |
stop_btn="Stop",
|
149 |
retry_btn="🔄 Opnieuw",
|
|
|
14 |
MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "8192"))
|
15 |
|
16 |
if torch.cuda.is_available():
|
17 |
+
model_id = "google/gemma-2-27b-it"
|
18 |
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype=torch.float16, device_map="auto")
|
19 |
tokenizer = AutoTokenizer.from_pretrained(model_id)
|
20 |
|
|
|
64 |
chat_interface = gr.ChatInterface(
|
65 |
fn=generate,
|
66 |
chatbot=gr.Chatbot(height=450,
|
67 |
+
label="google/gemma-2-27b-it",
|
68 |
show_share_button=True,
|
69 |
avatar_images=(None, 'geitje-logo.jpg')),
|
70 |
# textbox=gr.Textbox(value="Typ een bericht…"),
|
|
|
134 |
```
|
135 |
Vat bovenstaand artikel samen"""]
|
136 |
],
|
137 |
+
title="google/gemma-2-27b-it",
|
138 |
+
description="""google/gemma-2-27b-it quick demo""",
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
139 |
submit_btn="Genereer",
|
140 |
stop_btn="Stop",
|
141 |
retry_btn="🔄 Opnieuw",
|