Nome do Modelo: Legislinho
Teste no 鈻讹笍 Colab
Nunca usou Google Colab? Est谩 confuso(a)? Siga esse tut贸rial: Tutotial de Como Usar Colab
Vers茫o: v0
Descri莽茫o: O Legislinho 茅 um modelo de Intelig锚ncia Artificial (AI) em sua vers茫o inicial, n茫o pronto para produ莽茫o. Ele funciona como um primeira consulta em assuntos relacionados 脿 legisla莽茫o brasileira. Foi treinado a partir do OpenHermes no vade mecum da legisla莽茫o brasileira e further fine-tunned (QLoRA) em um conjunto selecionado de perguntas e respostas sobre legisla莽茫o brasileira.
Aviso: O Legislinho n茫o substitui de forma alguma um advogado. Seu prop贸sito 茅 ser um guia, um norte para pessoas que se sentem perdidas no 芒mbito da legisla莽茫o brasileira. As respostas fornecidas pelo modelo n茫o constituem uma consulta jur铆dica real.
Dados de Treinamento: O modelo foi treinado usando o OpenHermes no vade mecum da legisla莽茫o brasileira e ajustado com um conjunto selecionado de perguntas e respostas sobre legisla莽茫o brasileira.
Caracter铆sticas do Modelo: O Legislinho 茅 capaz de responder a perguntas simples sobre legisla莽茫o brasileira, fornecendo informa莽玫es b谩sicas e orienta莽玫es gerais.
Limita莽玫es: Como o modelo est谩 em sua vers茫o inicial, suas respostas podem n茫o ser sempre precisas ou completas. Al茅m disso, o Legislinho n茫o est谩 equipado para lidar com casos complexos ou espec铆ficos que exigem conhecimento legal especializado.
Considera莽玫es 脡ticas: O uso do Legislinho deve ser feito com responsabilidade, entendendo que suas respostas s茫o apenas orienta莽玫es gerais e n茫o substituem uma consulta jur铆dica profissional.
Uso Recomendado: O Legislinho pode ser usado por indiv铆duos que procuram uma compreens茫o b谩sica de assuntos legais no Brasil. 脡 recomend谩vel que os usu谩rios procurem orienta莽茫o legal profissional para situa莽玫es espec铆ficas ou complexas.
Inferencia: Para executar inferencia se necessita ter os seguintes pacotes instalados:
(pip install / poetry add)peft accelerate bitsandbytes safetensors transformers
C贸dico completo para infer锚ncia:
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained('MagusCorp/legislinho')
tokenizer = AutoTokenizer.from_pretrained('MagusCorp/legislinho')
preprompt = 'Voc锚 茅 um agente de aux铆lio jur铆dico que n茫o repete palavras de forma redundante e redige de forma clara concisa, como algu茅m formado em direito. Voc锚 n茫o cita leis de forma alguma apenas procedimentos legais e opera莽玫es. Voc锚 apenas 茅 uma primeira consulta antes da pessoa procurar um advogado. Utilize todo o seu conhecimento da constitui莽茫o brasileira para responder. N茫o repita a mesma informa莽茫o em sua resposta. Seja assertivo. Atente-se a pergunta e elabore uma estrat茅gia de solu莽茫o do problema contemplando toda a pergunta, tal como faz um advogado. Pergunta:\n'
pospromt = "\nResposta:"
prompt = 'Minha mae vendeu a casa dela sem consultar nem um dos filhos ela pode fazer isso?'
inputs = tokenizer(preprompt+prompt+pospromt, return_tensors='pt').to('cuda')
outputs = model.generate(**inputs,max_new_tokens=1000)
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(answer.split(prompt)[1])
Avalia莽茫o: O modelo ainda n茫o foi avaliado em um ambiente de produ莽茫o.
Contato: Para mais informa莽玫es ou d煤vidas sobre o Legislinho, entre em contato conosco. email
Se quiser ajudar o desenvolvimento do Legislinho e outros projetos no forno. Considere doar:
Open Portuguese LLM Leaderboard Evaluation Results
Detailed results can be found here and on the 馃殌 Open Portuguese LLM Leaderboard
Metric | Value |
---|---|
Average | 63.6 |
ENEM Challenge (No Images) | 63.05 |
BLUEX (No Images) | 51.04 |
OAB Exams | 43.23 |
Assin2 RTE | 88.70 |
Assin2 STS | 67.76 |
FaQuAD NLI | 63.80 |
HateBR Binary | 72.64 |
PT Hate Speech Binary | 65.63 |
tweetSentBR | 56.52 |
- Downloads last month
- 11
Space using MagusCorp/legislinho 1
Evaluation results
- accuracy on ENEM Challenge (No Images)Open Portuguese LLM Leaderboard63.050
- accuracy on BLUEX (No Images)Open Portuguese LLM Leaderboard51.040
- accuracy on OAB ExamsOpen Portuguese LLM Leaderboard43.230
- f1-macro on Assin2 RTEtest set Open Portuguese LLM Leaderboard88.700
- pearson on Assin2 STStest set Open Portuguese LLM Leaderboard67.760
- f1-macro on FaQuAD NLItest set Open Portuguese LLM Leaderboard63.800
- f1-macro on HateBR Binarytest set Open Portuguese LLM Leaderboard72.640
- f1-macro on PT Hate Speech Binarytest set Open Portuguese LLM Leaderboard65.630
- f1-macro on tweetSentBRtest set Open Portuguese LLM Leaderboard56.520