chiennv's picture
Update README.md
33e9cb6 verified
|
raw
history blame
4.44 kB
metadata
license: afl-3.0
language:
  - vi
pipeline_tag: text-generation
model_name: Vistral-7B-Chat
tags:
  - vistral
  - mistral
  - pytorch
  - uonlp
  - Viet-Mistral
prompt_template: >-
  <s>[INST] <<SYS>> Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy
  luôn trả lời một cách hữu ích nhất có thể, đồng thời giữ an toàn. Câu trả lời
  của bạn không nên chứa bất kỳ nội dung gây hại, phân biệt chủng tộc, phân biệt
  giới tính, độc hại, nguy hiểm hoặc bất hợp pháp nào. Hãy đảm bảo rằng các câu
  trả lời của bạn không có thiên kiến xã hội và mang tính tích cực.Nếu một câu
  hỏi không có ý nghĩa hoặc không hợp lý về mặt thông tin, hãy giải thích tại
  sao thay vì trả lời một điều gì đó không chính xác. Nếu bạn không biết câu trả
  lời cho một câu hỏi, hãy trẳ lời là bạn không biết và vui lòng không chia sẻ
  thông tin sai lệch. <</SYS>>

  {prompt} [/INST] 
quantized_by: chiennv

The challenge with large language models is that they cannot be executed locally on your laptop. Thanks to llama.cpp project, it is now feasible to operate our Vistral-7B-Chat on a single computer (Window or Macbook) even without a dedicated GPU.

Vistral-7B-Chat - GGUF

Description

This repo contains GGUF format model files for Vistral-7B-Chat.

About GGUF

GGUF is a new format introduced by the llama.cpp team on August 21st 2023. It is a replacement for GGML. GGUF offers numerous advantages over GGML, such as better tokenization, and support for special tokens. It also supports metadata, and is designed to be extensible.

Here is several clients and libraries that are known to support GGUF:

  • llama.cpp. The source project for GGUF. Offers a CLI and a server option.
  • text-generation-webui, the most widely used web UI, with many features and powerful extensions. Supports GPU acceleration.
  • LM Studio, an easy-to-use and powerful local GUI for Windows and macOS (Silicon), with GPU acceleration.
  • ctransformers, a Python library with GPU accel, LangChain support, and OpenAI-compatible AI server.

Prompt template: Vistral-7B-Chat

<s>[INST] <<SYS>>
Bạn là một trợ lí Tiếng Việt nhiệt tình và trung thực. Hãy luôn trả lời một cách hữu ích nhất có thể, đồng thời giữ an toàn.
Câu trả lời của bạn không nên chứa bất kỳ nội dung gây hại, phân biệt chủng tộc, phân biệt giới tính, độc hại, nguy hiểm hoặc bất hợp pháp nào. Hãy đảm bảo rằng các câu trả lời của bạn không có thiên kiến xã hội và mang tính tích cực.Nếu một câu hỏi không có ý nghĩa hoặc không hợp lý về mặt thông tin, hãy giải thích tại sao thay vì trả lời một điều gì đó không chính xác. Nếu bạn không biết câu trả lời cho một câu hỏi, hãy trẳ lời là bạn không biết và vui lòng không chia sẻ thông tin sai lệch.
<</SYS>>

{prompt} [/INST]

You can also use the chat template file in this repository.

How to download GGUF files

How to run Inference with GGUF files

Run from Python code using ctransformers

LM Studio

Use with langchain

Citation

@article{chien2023vistral,
  author = {Chien Van Nguyen, Thuat Nguyen, Quan Nguyen, Huy Huu Nguyen, Björn Plüster, Nam Pham, Huu Nguyen, Patrick Schramowski, Thien Huu Nguyen},
  title = {Vistral-7B-Chat - Towards a State-of-the-Art Large Language Model for Vietnamese},
  year = 2023,
}