import os import json import bcrypt import chainlit as cl from chainlit.input_widget import TextInput, Select, Switch, Slider from literalai import LiteralClient literal_client = LiteralClient(api_key=os.getenv("LITERAL_API_KEY")) from operator import itemgetter from pinecone import Pinecone from langchain.embeddings import HuggingFaceEmbeddings from langchain_community.llms import HuggingFaceEndpoint from langchain.memory import ConversationBufferMemory from langchain.schema import StrOutputParser from langchain.schema.runnable import Runnable from langchain.schema.runnable.config import RunnableConfig from langchain.schema.runnable import Runnable, RunnablePassthrough, RunnableLambda from langchain_core.prompts import PromptTemplate os.environ['HUGGINGFACEHUB_API_TOKEN'] = os.environ['HUGGINGFACEHUB_API_TOKEN'] repo_id = "mistralai/Mixtral-8x7B-Instruct-v0.1" llm = HuggingFaceEndpoint( repo_id=repo_id, max_new_tokens=5000, temperature=1.0, task="text2text-generation", streaming=True ) os.environ['PINECONE_API_KEY'] = os.environ['PINECONE_API_KEY'] embeddings = HuggingFaceEmbeddings() index_name = "all-venus" pc = Pinecone( api_key=os.environ['PINECONE_API_KEY'] ) index = pc.Index(index_name) @cl.password_auth_callback def auth_callback(username: str, password: str): auth = json.loads(os.environ['CHAINLIT_AUTH_LOGIN']) ident = next(d['ident'] for d in auth if d['ident'] == username) pwd = next(d['pwd'] for d in auth if d['ident'] == username) resultLogAdmin = bcrypt.checkpw(username.encode('utf-8'), bcrypt.hashpw(ident.encode('utf-8'), bcrypt.gensalt())) resultPwdAdmin = bcrypt.checkpw(password.encode('utf-8'), bcrypt.hashpw(pwd.encode('utf-8'), bcrypt.gensalt())) resultRole = next(d['role'] for d in auth if d['ident'] == username) if resultLogAdmin and resultPwdAdmin and resultRole == "admindatapcc": return cl.User( identifier=ident + " : đŸ§‘â€đŸ’Œ Admin Datapcc", metadata={"role": "admin", "provider": "credentials"} ) elif resultLogAdmin and resultPwdAdmin and resultRole == "userdatapcc": return cl.User( identifier=ident + " : 🧑‍🎓 User Datapcc", metadata={"role": "user", "provider": "credentials"} ) @cl.author_rename def rename(orig_author: str): rename_dict = {"LLMMathChain": "Albert Einstein", "Doc Chain Assistant": "Assistant Reviewstream"} return rename_dict.get(orig_author, orig_author) @cl.set_chat_profiles async def chat_profile(): return [ cl.ChatProfile(name="Reviewstream",markdown_description="RequĂȘter sur les publications de recherche",icon="/public/logo-ofipe.jpg",), cl.ChatProfile(name="Imagestream",markdown_description="RequĂȘter sur un ensemble d'images",icon="./public/logo-ofipe.jpg",), ] @cl.on_chat_start async def start(): await cl.Message(f"> REVIEWSTREAM").send() await cl.Message(f"Nous avons le plaisir de vous accueillir dans l'application de recherche et d'analyse des publications.").send() listPrompts_name = f"Liste des revues de recherche" contentPrompts = """

Hal Archives Ouvertes : Une archive ouverte est un réservoir numérique contenant des documents issus de la recherche scientifique, généralement déposés par leurs auteurs, et permettant au grand public d'y accéder gratuitement et sans contraintes.

Persée : offre un accÚs libre et gratuit à des collections complÚtes de publications scientifiques (revues, livres, actes de colloques, publications en série, sources primaires, etc.) associé à une gamme d'outils de recherche et d'exploitation.

""" prompt_elements = [] prompt_elements.append( cl.Text(content=contentPrompts, name=listPrompts_name, display="side") ) await cl.Message(content="📚 " + listPrompts_name, elements=prompt_elements).send() settings = await cl.ChatSettings( [ Select( id="Model", label="Publications de recherche", values=["---", "HAL", "PersĂ©e"], initial_index=0, ), ] ).send() memory = ConversationBufferMemory( return_messages=True ) template = """[INST] Vous ĂȘtes un chercheur de l'enseignement supĂ©rieur et vous ĂȘtes douĂ© pour faire des analyses d'articles de recherche sur les thĂ©matiques liĂ©es Ă  la pĂ©dagogie, en fonction des critĂšres dĂ©finis ci-avant. En fonction des informations suivantes et du contexte suivant seulement et strictement, rĂ©pondez en langue française strictement Ă  la question ci-dessous Ă  partir du contexte ci-dessous. Si vous ne pouvez pas rĂ©pondre Ă  la question sur la base des informations, dites que vous ne trouvez pas de rĂ©ponse ou que vous ne parvenez pas Ă  trouver de rĂ©ponse. Essayez donc de comprendre en profondeur le contexte et rĂ©pondez uniquement en vous basant sur les informations fournies. Ne gĂ©nĂ©rez pas de rĂ©ponses non pertinentes. {context} {question} [/INST] """ prompt = PromptTemplate(template=template, input_variables=["question","context"]) chain = ( RunnablePassthrough.assign( history=RunnableLambda(memory.load_memory_variables) | itemgetter("history") ) | prompt | llm | StrOutputParser() ) cl.user_session.set("runnable", chain) @cl.on_message async def main(message: cl.Message): runnable = cl.user_session.get("runnable") xq = embeddings.embed_query(message.content) xc = index.query(vector=xq, filter={"categorie": {"$eq": "bibliographie-OPP-DGDIN"}},top_k=300, include_metadata=True) context_p = "" for result in xc['matches']: context_p = context_p + result['metadata']['text'] msg = cl.Message(author="Datapcc : 🌐🌐🌐",content="") async for chunk in runnable.astream({"question": message.content,"context":context_p}, config=RunnableConfig(callbacks=[cl.AsyncLangchainCallbackHandler(stream_final_answer=True)])): await msg.stream_token(chunk)