--- title: README emoji: 🐠 colorFrom: yellow colorTo: gray sdk: static pinned: false --- (English below)

Vietnamese Vision-Language Model (Vi-VLM)

Chúng tôi là ai?

Vietnamese Vision-Language Model (Vi-VLM) là một dự án nghiên cứu tập trung vào lĩnh vực multimodal, tích hợp cả thị giác và ngôn ngữ cho tiếng Việt.

Nhóm nghiên cứu của Vi-VLM mong muốn đóng góp, phát triển những mô hình và bộ dữ liệu chất lượng cao nhất nhằm thúc đẩy sự phát triển của Trí tuệ nhân tạo trong lĩnh vực Vision-Language.

Những đóng góp hiện tại

  1. Vista: Bộ dữ liệu lớn cho vision-language được xây dựng dựa trên LLAVA, ShareGPT4V, WIT.

Các thành viên

-----

Who are we?

Vietnamese Vision-Language Model (Vi-VLM) is a research project focusing on the multimodal field, integrating both vision and language for Vietnamese.

Vi-VLM's research team wishes to contribute and develop the highest quality models and data sets to promote the development of Artificial Intelligence in the field of Vision-Language.

Current contribution

  1. Vista: Large dataset for vision-language built on LLAVA, ShareGPT4V, WIT.

Members