Spaces:
Running
on
Zero
Running
on
Zero
Update app.py with better translations (#1)
Browse files- Update app.py with better translations (330573c58cf1bbf4f4cff6e53d3fffcc05ae672d)
app.py
CHANGED
@@ -14,7 +14,7 @@ MAX_INPUT_TOKEN_LENGTH = int(os.getenv("MAX_INPUT_TOKEN_LENGTH", "4096"))
|
|
14 |
DESCRIPTION = """\
|
15 |
# தமிழ் AI உதவியாளர்
|
16 |
|
17 |
-
|
18 |
|
19 |
(This Space demonstrates the Tamil Llama-2 7b [model](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1) as a daily life AI assistant.)
|
20 |
"""
|
@@ -29,7 +29,7 @@ this demo is governed by the original [license](https://huggingface.co/spaces/hu
|
|
29 |
|
30 |
SYSTEM_PROMPT = "ஒரு பணியை எவ்வாறு நிறைவேற்ற வேண்டும் என்று கூறும் அறிவுரை கீழே உள்ளது. வேண்டுகோளைப் பொருத்தமாக நிறைவு செய்கின்ற பதில் ஒன்றை எழுதுக."
|
31 |
|
32 |
-
PROMPT_TEMPLATE = """{% if messages[0]['role'] == 'system' %}{{ messages[0]['content'] + '\n\n' }}{% endif %}### Instruction:\nநீங்கள்
|
33 |
|
34 |
if not torch.cuda.is_available():
|
35 |
DESCRIPTION += "\n<p>Running on CPU 🥶 This demo does not work on CPU.</p>"
|
@@ -86,19 +86,19 @@ def generate(
|
|
86 |
yield "".join(outputs)
|
87 |
|
88 |
examples = [
|
89 |
-
["
|
90 |
-
["என் முதலாளி மிகவும் கட்டுப்படுத்துகிறார், நான் என்ன செய்ய வேண்டும்?"],
|
91 |
-
["
|
92 |
-
["வரலாற்றில்
|
93 |
-
["
|
94 |
]
|
95 |
|
96 |
with gr.Blocks(css="style.css") as demo:
|
97 |
gr.Markdown(DESCRIPTION)
|
98 |
chatbot = gr.Chatbot()
|
99 |
-
msg = gr.Textbox(label="உங்கள் செய்தியை
|
100 |
-
submit_btn = gr.Button("
|
101 |
-
clear = gr.Button("
|
102 |
|
103 |
def user(user_message, history):
|
104 |
return "", history + [[user_message, None]]
|
@@ -112,7 +112,7 @@ with gr.Blocks(css="style.css") as demo:
|
|
112 |
history[-1][1] = bot_message
|
113 |
yield history
|
114 |
|
115 |
-
gr.Examples(examples=examples, inputs=[msg], label="
|
116 |
|
117 |
with gr.Accordion("மேம்பட்ட விருப்பங்கள் / Advanced Options", open=False):
|
118 |
max_new_tokens = gr.Slider(label="Max new tokens", minimum=1, maximum=MAX_MAX_NEW_TOKENS, step=1, value=DEFAULT_MAX_NEW_TOKENS)
|
|
|
14 |
DESCRIPTION = """\
|
15 |
# தமிழ் AI உதவியாளர்
|
16 |
|
17 |
+
இந்தப் பயன்பாட்டு விளக்கம் அன்றாட வாழ்க்கைக்கான AI உதவியாளருக்காக Tamil Llama-2 7b மாதிரியில் இருந்து செய்யப்படுகிறது.
|
18 |
|
19 |
(This Space demonstrates the Tamil Llama-2 7b [model](https://huggingface.co/abhinand/tamil-llama-7b-instruct-v0.1) as a daily life AI assistant.)
|
20 |
"""
|
|
|
29 |
|
30 |
SYSTEM_PROMPT = "ஒரு பணியை எவ்வாறு நிறைவேற்ற வேண்டும் என்று கூறும் அறிவுரை கீழே உள்ளது. வேண்டுகோளைப் பொருத்தமாக நிறைவு செய்கின்ற பதில் ஒன்றை எழுதுக."
|
31 |
|
32 |
+
PROMPT_TEMPLATE = """{% if messages[0]['role'] == 'system' %}{{ messages[0]['content'] + '\n\n' }}{% endif %}### Instruction:\nநீங்கள் பயனருடன் தொடர்பு கொள்ளும் ஒரு AI உதவியாளர். நீங்கள் பயனருடன் இதுவரை பேசியவை இங்கே உள்ளன:\n\n{% for message in messages %}{% if message['role'] == 'user' %}{{ '\nUser: ' + message['content'] + '\n'}}{% elif message['role'] == 'assistant' %}{{ '\nAI: ' + message['content'] + '\n'}}{% endif %}{% endfor %}\n\nஒரு AI உதவியாளராக, உங்கள் அடுத்த பதிலை உரையாடலில் எழுதவும். ஒரே ஒரு பதிலை மட்டும் எழுதுங்கள்.\n\n### Response:\n"""
|
33 |
|
34 |
if not torch.cuda.is_available():
|
35 |
DESCRIPTION += "\n<p>Running on CPU 🥶 This demo does not work on CPU.</p>"
|
|
|
86 |
yield "".join(outputs)
|
87 |
|
88 |
examples = [
|
89 |
+
["சீக்கிரம் தூங்குவது எப்படி?"],
|
90 |
+
["என் முதலாளி என்னை மிகவும் கட்டுப்படுத்துகிறார், நான் என்ன செய்ய வேண்டும்?"],
|
91 |
+
["திருமணத்திற்குச் செல்ல நான் என்ன உடை அணிய வேண்டும்?"],
|
92 |
+
["வரலாற்றில் இருந்து தெரிந்துகொள்ள வேண்டிய சில முக்கியமான காலகட்டங்கள் என்ன?"],
|
93 |
+
["நன்றாக சம்பாதிக்க வேண்டும், ஆனால் மகிழ்ச்சியாக இருக்க வேண்டும். அதற்கு என்ன தொழில் செய்யலாம்?"],
|
94 |
]
|
95 |
|
96 |
with gr.Blocks(css="style.css") as demo:
|
97 |
gr.Markdown(DESCRIPTION)
|
98 |
chatbot = gr.Chatbot()
|
99 |
+
msg = gr.Textbox(label="உங்கள் செய்தியை உள்ளிடுக / Enter your message")
|
100 |
+
submit_btn = gr.Button("சமர்ப்பி / Submit")
|
101 |
+
clear = gr.Button("அழி / Clear")
|
102 |
|
103 |
def user(user_message, history):
|
104 |
return "", history + [[user_message, None]]
|
|
|
112 |
history[-1][1] = bot_message
|
113 |
yield history
|
114 |
|
115 |
+
gr.Examples(examples=examples, inputs=[msg], label="எடுத்துக்காட்டுகள் / Examples")
|
116 |
|
117 |
with gr.Accordion("மேம்பட்ட விருப்பங்கள் / Advanced Options", open=False):
|
118 |
max_new_tokens = gr.Slider(label="Max new tokens", minimum=1, maximum=MAX_MAX_NEW_TOKENS, step=1, value=DEFAULT_MAX_NEW_TOKENS)
|