|
--- |
|
frameworks: |
|
- Pytorch |
|
license: other |
|
tasks: |
|
- text-generation |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
--- |
|
|
|
# GLMEDGE-Chat-GGUF |
|
|
|
## GLM-Edge 模型介绍 |
|
|
|
GLM-Edge是基于GLM系列模型的一款边缘计算优化的大型语言模型。该模型在保持原有GLM模型强大语言处理能力的基础上,针对边缘设备进行了特殊优化,以适应资源受限的环境。 |
|
|
|
## 快速开始 |
|
|
|
安装 |
|
目前针对该模型的适配代码正在积极合入官方llama.cpp中,可通过下述适配版本进行测试: |
|
|
|
``` |
|
git clone https://github.com/piDack/llama.cpp -b support_glm_edge_model |
|
cmake -B build -DGGML_CUDA=ON # 或开启其他加速硬件 |
|
cmake --build build -- -j |
|
``` |
|
|
|
使用 |
|
安装完成后,您可以通过以下命令启动GLM-Edge Chat模型: |
|
``` |
|
llama-cli -m <path>/model.gguf -p "<|user|>\nhi<|assistant|>\n" -ngl 999 |
|
``` |
|
在命令行界面,您可以与模型进行交互,输入您的需求,模型将为您提供相应的回复。 |
|
|