felipovysk
commited on
Commit
•
75ba888
1
Parent(s):
b74191d
Update README.md
Browse files
README.md
CHANGED
@@ -25,3 +25,39 @@ configs:
|
|
25 |
- split: eval
|
26 |
path: data/eval-*
|
27 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
25 |
- split: eval
|
26 |
path: data/eval-*
|
27 |
---
|
28 |
+
# Legislação UFAM
|
29 |
+
|
30 |
+
Este é um dataset que contém as legislações acadêmicas da Universidade Federal do Amazonas presente [nesta página](https://proeg.ufam.edu.br/normas-academicas/57-proeg/146-legislacao-e-normas.html).
|
31 |
+
|
32 |
+
Ele é composto de 3 partes:
|
33 |
+
|
34 |
+
- `pdf`: esta pasta contém todos os arquivos em pdf da página referenciada;
|
35 |
+
- `text`: esta pasta contém o texto presente nos arquivos da pasta pdf, detectado usando a [libtesseract](https://github.com/tesseract-ocr/tesseract);
|
36 |
+
- `data`: esta pasta contém um `Dataset` de perguntas com contexto e resposta, no formato requerido pelo modelo [Llama-2-7b-chat-hf](https://huggingface.co/meta-llama/Llama-2-7b-chat-hf):
|
37 |
+
|
38 |
+
```
|
39 |
+
<s>
|
40 |
+
[INST] Dado o seguinte contexto: {contexto}
|
41 |
+
Responda a seguinte pergunta: {pergunta} [/INST]
|
42 |
+
{resposta}
|
43 |
+
</s>
|
44 |
+
```
|
45 |
+
|
46 |
+
O `Dataset` presente em `data` foi gerado com o uso do modelo `gpt-4o-mini` da OpenAI, da seguinte forma:
|
47 |
+
1. Selecionamos aleatoriamente 3 trechos de legislação dos textos presentes na pasta `text`;
|
48 |
+
2. Submetemos esses 3 trechos em conjunto com o seguinte prompt para o modelo:
|
49 |
+
```
|
50 |
+
prompt = """\
|
51 |
+
Você é alguém associado à UFAM (estudante, professor ou funcionário). \
|
52 |
+
Você deve, dado um conjunto de até 3 artigos da legislação da UFAM separados \
|
53 |
+
por quebra de linha, gerar até 3 perguntas e as respostas dessas perguntas, \
|
54 |
+
e responder com um array JSON contendo objetos com as chaves 'question' e 'answer'. \
|
55 |
+
Se não for possível extrair nenhuma informação significativa das 3 linhas dadas como \
|
56 |
+
input, retorne um array vazio. Se fizer sentido, tente fazer perguntas que se utilizam \
|
57 |
+
de mais de uma linha da entrada. Responda com o JSON cru, sem nenhuma formatação adicional. \
|
58 |
+
Não cite nominalmente os artigos se não souber a lei da qual eles fazem parte, tanto na pergunta quanto na resposta. \
|
59 |
+
Não faça menção direta ou indireta ao contexto nas perguntas (não fale sobre a "legislação mencionada" ou algo do tipo).
|
60 |
+
Se alguma palavra não fizer sentido no texto, corrija-a."""
|
61 |
+
```
|
62 |
+
3. Repetimos o processo até termos 1000 exemplos de triplas (pergunta, contexto, resposta).
|
63 |
+
4. Essas triplas foram convertidas para o formato descrito acima.
|