# Import Library yang Diperlukan import gradio as gr import shutil import os import subprocess from llama_cpp import Llama from llama_index.core import SimpleDirectoryReader, VectorStoreIndex, Settings from llama_index.core.llms import ChatMessage from llama_index.llms.llama_cpp import LlamaCPP from llama_index.embeddings.huggingface import HuggingFaceEmbedding from huggingface_hub import hf_hub_download from llama_index.core.node_parser import SentenceSplitter # Fungsi untuk mengunduh model Llama def initialize_llama_model(): # Unduh model jika belum ada di direktori kerja model_path = hf_hub_download( repo_id="TheBLoke/zephyr-7b-beta-GGUF", # Nama repo model filename="zephyr-7b-beta.Q4_K_M.gguf", # Nama file model cache_dir="./models" # Lokasi direktori untuk menyimpan model ) return model_path # Fungsi untuk mengatur konfigurasi Settings def initialize_settings(model_path): Settings.llm = LlamaCPP( model_path=model_path, temperature=0.7, ) # Fungsi untuk Menginisialisasi Index def initialize_index(): # Tentukan dokumen input untuk pembacaan data documents = SimpleDirectoryReader(input_files=["bahandokumen/K3.txt", "bahandokumen/bonus.txt", "bahandokumen/absensi.txt", "bahandokumen/cuti.txt", "bahandokumen/disiplinkerja.txt", "bahandokumen/fasilitas&bantuan.txt", "bahandokumen/fasilitaskerja.txt", "bahandokumen/hak.txt", "bahandokumen/hubunganpengusaha&serikat.txt", "bahandokumen/istilah.txt", "bahandokumen/jaminanserikat.txt", "bahandokumen/jamkes.txt", "bahandokumen/jamsos.txt", "bahandokumen/keluhkesah.txt", "bahandokumen/kenaikanupah.txt", "bahandokumen/kewajiban.txt", "bahandokumen/kompensasi.txt", "bahandokumen/larangan.txt", "bahandokumen/lembur.txt", "bahandokumen/luaskesepakatan.txt", "bahandokumen/mogok.txt", "bahandokumen/pelanggaran&sanksi.txt", "bahandokumen/pendidikan.txt", "bahandokumen/pengangkatan.txt", "bahandokumen/penilaian&promosi.txt", "bahandokumen/pensiun.txt", "bahandokumen/perjadin.txt", "bahandokumen/pesangon.txt", "bahandokumen/phk.txt", "bahandokumen/pihak.txt", "bahandokumen/pkb.txt", "bahandokumen/resign.txt", "bahandokumen/sanksi.txt", "bahandokumen/shift.txt", "bahandokumen/syaratkerja.txt", "bahandokumen/sisacuti.txt", "bahandokumen/target.txt", "bahandokumen/tatacara.txt", "bahandokumen/tka.txt", "bahandokumen/tunjangan.txt", "bahandokumen/uangpisah.txt", "bahandokumen/upah.txt", "bahandokumen/upahlembur.txt", "bahandokumen/waktukerja.txt"]).load_data() parser = SentenceSplitter(chunk_size=150, chunk_overlap=10) nodes = parser.get_nodes_from_documents(documents) embedding = HuggingFaceEmbedding("sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2") Settings.embed_model = embedding index = VectorStoreIndex(nodes) return index # Inisialisasi Mesin Chat def initialize_chat_engine(index): from llama_index.core.prompts import PromptTemplate from llama_index.core.chat_engine.condense_plus_context import CondensePlusContextChatEngine retriever = index.as_retriever(similarity_top_k=3) chat_engine = CondensePlusContextChatEngine.from_defaults( retriever=retriever, verbose=True, ) return chat_engine # Fungsi untuk menghasilkan respons chatbot def generate_response(message, history, chat_engine): if history is None: # ✅ Cek jika history None history = [] chat_messages = [ ChatMessage( role="system", content="Anda adalah chatbot yang menjawab dalam bahasa Indonesia. Berikut contoh percakapan:\n" "Pengguna: Apa itu lembur?\n" "Chatbot: Lembur adalah pekerjaan yang dilakukan di luar jam kerja yang telah ditetapkan.\n" "Pengguna: Apa syarat kerja di perusahaan?\n" "Chatbot: Syarat kerja di perusahaan meliputi waktu kerja, gaji, dan tunjangan sesuai dengan peraturan perusahaan." ), ] response = chat_engine.stream_chat(message) text = "".join(response.response_gen) # Gabungkan semua token menjadi string history.append((message, text)) # ✅ Sekarang history sudah pasti berupa list return history def clear_history(chat_engine): chat_engine.clear() # Fungsi Utama untuk Menjalankan Aplikasi def main(): # Unduh model dan inisialisasi pengaturan model_path = initialize_llama_model() initialize_settings(model_path) # Inisialisasi index dan chat engine index = initialize_index() chat_engine = initialize_chat_engine(index) # Fungsi untuk chat def chatbot_response(message, history): return generate_response(message, history, chat_engine) # Luncurkan Gradio UI gr.Interface( fn=chatbot_response, inputs=["text"], outputs=["text"], ).launch() if __name__ == "__main__": main()