keitokei1994
commited on
update make command.
Browse files
README.md
CHANGED
@@ -15,7 +15,7 @@ language:
|
|
15 |
* Llama.cppであれば、以下の手順で対応してください:
|
16 |
1. 以下のコマンドでビルドします:
|
17 |
```
|
18 |
-
make LLAMA_CUDA_FA_ALL_QUANTS=true
|
19 |
```
|
20 |
2. 以下のようなコマンドでFlashAttentionを有効化して実行します:
|
21 |
```
|
@@ -31,7 +31,7 @@ This is a gguf format conversion of [shisa-v1-qwen2-7b](https://huggingface.co/s
|
|
31 |
* If using Llama.cpp, please follow these steps:
|
32 |
1. Build with the following command:
|
33 |
```
|
34 |
-
make LLAMA_CUDA_FA_ALL_QUANTS=true
|
35 |
```
|
36 |
2. Run with Flash Attention enabled using a command like this:
|
37 |
```
|
|
|
15 |
* Llama.cppであれば、以下の手順で対応してください:
|
16 |
1. 以下のコマンドでビルドします:
|
17 |
```
|
18 |
+
make LLAMA_CUDA_FA_ALL_QUANTS=true GGML_CUDA=1
|
19 |
```
|
20 |
2. 以下のようなコマンドでFlashAttentionを有効化して実行します:
|
21 |
```
|
|
|
31 |
* If using Llama.cpp, please follow these steps:
|
32 |
1. Build with the following command:
|
33 |
```
|
34 |
+
make LLAMA_CUDA_FA_ALL_QUANTS=true GGML_CUDA=1
|
35 |
```
|
36 |
2. Run with Flash Attention enabled using a command like this:
|
37 |
```
|