Update README.md
Browse files
README.md
CHANGED
@@ -142,9 +142,9 @@ descripción de la fuente de información con los siguientes datos:
|
|
142 |
### Curation Rationale
|
143 |
|
144 |
<!-- Motivation for the creation of this dataset. -->
|
145 |
-
Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs,
|
146 |
-
|
147 |
-
|
148 |
|
149 |
Para entrenar un autoajustar un LLM en el dominio de la medicina y los cuidados de salud se necesitan gran cantidad de datos de este contexto.
|
150 |
Para crear un conjunto de datos en el dominio médico es necesaria alguna certificación por especialistas en la construcción del corpus.
|
@@ -209,7 +209,7 @@ Diferentes eventos, competencias de PLN o la construcción de los conjuntos de d
|
|
209 |
|
210 |
<!-- Enlazar aquí el notebook utilizado para crear el espacio de anotación de Argilla y la guía de anotación. -->
|
211 |
|
212 |
-
|
213 |
|
214 |
#### Who are the annotators?
|
215 |
|
@@ -239,7 +239,8 @@ Hugginface. En el siguiente ejemplo de código se obtienen del conjunto de datos
|
|
239 |
|
240 |
`
|
241 |
spanishMedicaLllmDataset = load_dataset(SPANISH_MEDICA_LLM_DATASET, split="train")
|
242 |
-
spanishMedicaLllmDataset =
|
|
|
243 |
`
|
244 |
|
245 |
### Recommendations
|
@@ -252,9 +253,12 @@ Users should be made aware of the risks, biases and limitations of the dataset.
|
|
252 |
|
253 |
Los usuarios deben ser conscientes de los riesgos, sesgos y limitaciones del conjunto de datos.
|
254 |
|
255 |
-
|
256 |
-
`medical_diagnostic`, `answer`, `natural_medicine_topic
|
257 |
-
|
|
|
|
|
|
|
258 |
|
259 |
<!--
|
260 |
In case of using this dataset for the LLM training or finetuning for natural language generating with a production
|
|
|
142 |
### Curation Rationale
|
143 |
|
144 |
<!-- Motivation for the creation of this dataset. -->
|
145 |
+
Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs, para la obtención de información médica de forma libre
|
146 |
+
y segura, cumpliendo con los objetivo del milenio: Salud y Bienestar, Educación y Calidad, Fin de la Pobreza propuestos por la ONU.
|
147 |
+
Existen pocos recursos o conjuntos de datos del dominio médico para el entrenamiento o autoajuste de un LLM en idioma español.
|
148 |
|
149 |
Para entrenar un autoajustar un LLM en el dominio de la medicina y los cuidados de salud se necesitan gran cantidad de datos de este contexto.
|
150 |
Para crear un conjunto de datos en el dominio médico es necesaria alguna certificación por especialistas en la construcción del corpus.
|
|
|
209 |
|
210 |
<!-- Enlazar aquí el notebook utilizado para crear el espacio de anotación de Argilla y la guía de anotación. -->
|
211 |
|
212 |
+
El proceso de anotacion fue automático, realizando la converción de las fuentes de datos a los atributos del nuevo conjunto de datos.
|
213 |
|
214 |
#### Who are the annotators?
|
215 |
|
|
|
239 |
|
240 |
`
|
241 |
spanishMedicaLllmDataset = load_dataset(SPANISH_MEDICA_LLM_DATASET, split="train")
|
242 |
+
spanishMedicaLllmDataset =
|
243 |
+
spanishMedicaLllmDataset.filter(lambda example: example["topic_type"] in ['medical_diagnostic' | 'medical_topic'])
|
244 |
`
|
245 |
|
246 |
### Recommendations
|
|
|
253 |
|
254 |
Los usuarios deben ser conscientes de los riesgos, sesgos y limitaciones del conjunto de datos.
|
255 |
|
256 |
+
Para el autojuste de un LLM se sugiere tener en cuenta las filas donde el tipo del tópico (ed., campo topic_type) tenga valores: `medical_topic`,
|
257 |
+
`medical_diagnostic`, `answer`, `natural_medicine_topic`. Porque indica que este campo no está vacio y tiene valor para la creación de intrucciones de la
|
258 |
+
forma pregunta y respuestas.
|
259 |
+
|
260 |
+
Para el prentrenamiento de un LLM se sugiere tener en cuenta cuando el campo `raw_text_type` sea igual a `open_text`. Esto indica que el texto
|
261 |
+
presente no forma parte de un formato pregunta/respuesta pero tiene un valor importante para el prentrenamiento de un LLM.
|
262 |
|
263 |
<!--
|
264 |
In case of using this dataset for the LLM training or finetuning for natural language generating with a production
|