---
title: VLLM
emoji: 🐢
colorFrom: red
colorTo: red
sdk: docker
pinned: false
license: apache-2.0
short_description: vLLM é uma biblioteca rápida e fácil de usar para inferência
---
VLLM
Senior Data Scientist.: Dr. Eddy Giusepe Chirinos Isidro
O `vLLM` serve para otimizar o desempenho dos Large Language Models (`LLMs`), permitindo que eles processem informações de forma mais eficiente e escalável.
![](https://raw.githubusercontent.com/vllm-project/vllm/main/docs/source/assets/logos/vllm-logo-text-light.png)
Thank God 🤓!