keitokei1994 commited on
Commit
c005374
·
verified ·
1 Parent(s): 250db7a

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -15,7 +15,7 @@ language:
15
  * Llama.cppであれば、以下の手順で対応してください:
16
  1. 以下のコマンドでビルドします:
17
  ```
18
- make LLAMA_CUDA_FA_ALL_QUANTS=true && LLAMA_CUDA=1
19
  ```
20
  2. 以下のようなコマンドでFlashAttentionを有効化して実行します:
21
  ```
@@ -31,7 +31,7 @@ This is a gguf format conversion of [shisa-v1-qwen2-7b](https://huggingface.co/s
31
  * If using Llama.cpp, please follow these steps:
32
  1. Build with the following command:
33
  ```
34
- make LLAMA_CUDA_FA_ALL_QUANTS=true && LLAMA_CUDA=1
35
  ```
36
  2. Run with Flash Attention enabled using a command like this:
37
  ```
 
15
  * Llama.cppであれば、以下の手順で対応してください:
16
  1. 以下のコマンドでビルドします:
17
  ```
18
+ make LLAMA_CUDA_FA_ALL_QUANTS=true LLAMA_CUDA=1
19
  ```
20
  2. 以下のようなコマンドでFlashAttentionを有効化して実行します:
21
  ```
 
31
  * If using Llama.cpp, please follow these steps:
32
  1. Build with the following command:
33
  ```
34
+ make LLAMA_CUDA_FA_ALL_QUANTS=true LLAMA_CUDA=1
35
  ```
36
  2. Run with Flash Attention enabled using a command like this:
37
  ```