BramLeo commited on
Commit
97a6274
·
verified ·
1 Parent(s): 6e3c359

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -34
app.py CHANGED
@@ -11,35 +11,6 @@ from llama_index.embeddings.huggingface import HuggingFaceEmbedding
11
  from huggingface_hub import hf_hub_download
12
  from llama_index.core.node_parser import SentenceSplitter
13
 
14
- # Fungsi untuk memasang ulang llama-cpp-python dengan dukungan CUDA
15
- def install_llama_with_cuda():
16
- try:
17
- # Baca file requirements.txt
18
- with open("requirements.txt", "r") as f:
19
- packages = f.read().splitlines()
20
-
21
- # Periksa apakah CUDA Toolkit tersedia
22
- if not shutil.which("nvcc"):
23
- print("CUDA Toolkit tidak ditemukan. Pastikan sudah diinstal.")
24
- return
25
-
26
- print("Memasang ulang llama-cpp-python dengan dukungan CUDA...")
27
-
28
- # Install setiap paket dengan CMAKE_ARGS untuk dukungan CUDA
29
- for package in packages:
30
- subprocess.run(
31
- ["pip", "install", package], # <-- Tambahkan perintah pip install
32
- env={**dict(subprocess.os.environ), "CMAKE_ARGS": "-DGGML_CUDA=on"},
33
- check=True
34
- )
35
-
36
- print("llama-cpp-python berhasil diinstal ulang dengan dukungan CUDA.")
37
-
38
- except subprocess.CalledProcessError as e:
39
- print(f"Error saat menginstal ulang llama-cpp-python: {e}")
40
- except Exception as e:
41
- print(f"Kesalahan umum: {e}")
42
-
43
  # Fungsi untuk mengunduh model Llama
44
  def initialize_llama_model():
45
  # Unduh model jika belum ada di direktori kerja
@@ -52,11 +23,9 @@ def initialize_llama_model():
52
 
53
  # Fungsi untuk mengatur konfigurasi Settings
54
  def initialize_settings(model_path):
55
- Settings.llm = Llama(
56
  model_path=model_path,
57
- n_gpu_layers=1, # Sesuaikan dengan kebutuhan perangkat Anda
58
- temperature=0.7, # Sesuaikan untuk respons yang lebih cepat
59
- top_p=0.9 # Mengurangi eksplorasi token
60
  )
61
 
62
  # Fungsi untuk Menginisialisasi Index
@@ -119,7 +88,6 @@ def launch_gradio(chat_engine):
119
 
120
  # Fungsi Utama untuk Menjalankan Aplikasi
121
  def main():
122
- install_llama_with_cuda()
123
  # Unduh model dan inisialisasi pengaturan
124
  model_path = initialize_llama_model()
125
  initialize_settings(model_path) # Mengirimkan model_path ke fungsi initialize_settings
 
11
  from huggingface_hub import hf_hub_download
12
  from llama_index.core.node_parser import SentenceSplitter
13
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
14
  # Fungsi untuk mengunduh model Llama
15
  def initialize_llama_model():
16
  # Unduh model jika belum ada di direktori kerja
 
23
 
24
  # Fungsi untuk mengatur konfigurasi Settings
25
  def initialize_settings(model_path):
26
+ Settings.llm = LlamaCPP(
27
  model_path=model_path,
28
+ temperature=0.7,
 
 
29
  )
30
 
31
  # Fungsi untuk Menginisialisasi Index
 
88
 
89
  # Fungsi Utama untuk Menjalankan Aplikasi
90
  def main():
 
91
  # Unduh model dan inisialisasi pengaturan
92
  model_path = initialize_llama_model()
93
  initialize_settings(model_path) # Mengirimkan model_path ke fungsi initialize_settings