--- title: VLLM emoji: 🐢 colorFrom: red colorTo: red sdk: docker pinned: false license: apache-2.0 short_description: vLLM é uma biblioteca rápida e fácil de usar para inferência ---

VLLM

Senior Data Scientist.: Dr. Eddy Giusepe Chirinos Isidro O `vLLM` serve para otimizar o desempenho dos Large Language Models (`LLMs`), permitindo que eles processem informações de forma mais eficiente e escalável. ![](https://raw.githubusercontent.com/vllm-project/vllm/main/docs/source/assets/logos/vllm-logo-text-light.png) Thank God 🤓!