Update README.md
Browse files
README.md
CHANGED
@@ -86,7 +86,7 @@ tags:
|
|
86 |
- Chat
|
87 |
|
88 |
```bash
|
89 |
-
wasmedge --dir .:. --nn-preload default:GGML:AUTO:
|
90 |
llama-api-server.wasm \
|
91 |
--prompt-template llama-3-chat \
|
92 |
--ctx-size 128000 \
|
@@ -96,7 +96,7 @@ tags:
|
|
96 |
- Tool use
|
97 |
|
98 |
```bash
|
99 |
-
wasmedge --dir .:. --nn-preload default:GGML:AUTO:
|
100 |
llama-api-server.wasm \
|
101 |
--prompt-template llama-3-tool \
|
102 |
--ctx-size 128000 \
|
@@ -106,7 +106,7 @@ tags:
|
|
106 |
- Run as LlamaEdge command app
|
107 |
|
108 |
```bash
|
109 |
-
wasmedge --dir .:. --nn-preload default:GGML:AUTO:
|
110 |
llama-chat.wasm \
|
111 |
--prompt-template llama-3-chat \
|
112 |
--ctx-size 128000
|
|
|
86 |
- Chat
|
87 |
|
88 |
```bash
|
89 |
+
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Llama-3.1-8B-Instruct-Q5_K_M.gguf \
|
90 |
llama-api-server.wasm \
|
91 |
--prompt-template llama-3-chat \
|
92 |
--ctx-size 128000 \
|
|
|
96 |
- Tool use
|
97 |
|
98 |
```bash
|
99 |
+
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Llama-3.1-8B-Instruct-Q5_K_M.gguf \
|
100 |
llama-api-server.wasm \
|
101 |
--prompt-template llama-3-tool \
|
102 |
--ctx-size 128000 \
|
|
|
106 |
- Run as LlamaEdge command app
|
107 |
|
108 |
```bash
|
109 |
+
wasmedge --dir .:. --nn-preload default:GGML:AUTO:Llama-3.1-8B-Instruct-Q5_K_M.gguf \
|
110 |
llama-chat.wasm \
|
111 |
--prompt-template llama-3-chat \
|
112 |
--ctx-size 128000
|