Vietnamese VLM

non-profit
Activity Feed

AI & ML interests

Multimodal, Vision-Language Models.

Recent Activity

pphuc25  updated a model 6 months ago
Vi-VLM/Vistral-V-7B
pphuc25  updated a Space 6 months ago
Vi-VLM/README
View all activity

(English below)

Vietnamese Vision-Language Model (Vietnamese-VLM)

Chúng tôi là ai?

Vietnamese Vision-Language Model (Vietnamese-VLM) là một dự án nghiên cứu tập trung vào lĩnh vực multimodal, tích hợp cả thị giác và ngôn ngữ cho tiếng Việt.

Nhóm nghiên cứu của Vi-VLM mong muốn đóng góp, phát triển những mô hình và bộ dữ liệu chất lượng cao nhất nhằm thúc đẩy sự phát triển của Trí tuệ nhân tạo trong lĩnh vực Vision-Language.

Những đóng góp hiện tại

  1. Vista: Bộ dữ liệu lớn cho vision-language được xây dựng dựa trên LLAVA, ShareGPT4V, WIT.
  2. Vistral-V (Vistral-Vision): Visual Instruction cho model Vistral - Mô hình hình ảnh và ngôn ngữ lớn cho tiếng Việt.

Các thành viên


Who are we?

Vietnamese Vision-Language Model (Vietnamese-VLM) is a research project focusing on the multimodal field, integrating both vision and language for Vietnamese.

Vi-VLM's research team wishes to contribute and develop the highest quality models and data sets to promote the development of Artificial Intelligence in the field of Vision-Language.

Current contribution

  1. Vista: Large dataset for vision-language built on LLAVA, ShareGPT4V, WIT.
  2. Vistral-V (Vistral-Vision): Visual Instruction Tuning for Vistral - Vietnamese Large Vision-Language Model.

Members