Update README.md
Browse files
README.md
CHANGED
|
@@ -142,9 +142,9 @@ descripción de la fuente de información con los siguientes datos:
|
|
| 142 |
### Curation Rationale
|
| 143 |
|
| 144 |
<!-- Motivation for the creation of this dataset. -->
|
| 145 |
-
Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs,
|
| 146 |
-
|
| 147 |
-
|
| 148 |
|
| 149 |
Para entrenar un autoajustar un LLM en el dominio de la medicina y los cuidados de salud se necesitan gran cantidad de datos de este contexto.
|
| 150 |
Para crear un conjunto de datos en el dominio médico es necesaria alguna certificación por especialistas en la construcción del corpus.
|
|
@@ -209,7 +209,7 @@ Diferentes eventos, competencias de PLN o la construcción de los conjuntos de d
|
|
| 209 |
|
| 210 |
<!-- Enlazar aquí el notebook utilizado para crear el espacio de anotación de Argilla y la guía de anotación. -->
|
| 211 |
|
| 212 |
-
|
| 213 |
|
| 214 |
#### Who are the annotators?
|
| 215 |
|
|
@@ -239,7 +239,8 @@ Hugginface. En el siguiente ejemplo de código se obtienen del conjunto de datos
|
|
| 239 |
|
| 240 |
`
|
| 241 |
spanishMedicaLllmDataset = load_dataset(SPANISH_MEDICA_LLM_DATASET, split="train")
|
| 242 |
-
spanishMedicaLllmDataset =
|
|
|
|
| 243 |
`
|
| 244 |
|
| 245 |
### Recommendations
|
|
@@ -252,9 +253,12 @@ Users should be made aware of the risks, biases and limitations of the dataset.
|
|
| 252 |
|
| 253 |
Los usuarios deben ser conscientes de los riesgos, sesgos y limitaciones del conjunto de datos.
|
| 254 |
|
| 255 |
-
|
| 256 |
-
`medical_diagnostic`, `answer`, `natural_medicine_topic
|
| 257 |
-
|
|
|
|
|
|
|
|
|
|
| 258 |
|
| 259 |
<!--
|
| 260 |
In case of using this dataset for the LLM training or finetuning for natural language generating with a production
|
|
|
|
| 142 |
### Curation Rationale
|
| 143 |
|
| 144 |
<!-- Motivation for the creation of this dataset. -->
|
| 145 |
+
Más de 600 millones de personas hablantes del idioma español necesitan recursos, como los LLMs, para la obtención de información médica de forma libre
|
| 146 |
+
y segura, cumpliendo con los objetivo del milenio: Salud y Bienestar, Educación y Calidad, Fin de la Pobreza propuestos por la ONU.
|
| 147 |
+
Existen pocos recursos o conjuntos de datos del dominio médico para el entrenamiento o autoajuste de un LLM en idioma español.
|
| 148 |
|
| 149 |
Para entrenar un autoajustar un LLM en el dominio de la medicina y los cuidados de salud se necesitan gran cantidad de datos de este contexto.
|
| 150 |
Para crear un conjunto de datos en el dominio médico es necesaria alguna certificación por especialistas en la construcción del corpus.
|
|
|
|
| 209 |
|
| 210 |
<!-- Enlazar aquí el notebook utilizado para crear el espacio de anotación de Argilla y la guía de anotación. -->
|
| 211 |
|
| 212 |
+
El proceso de anotacion fue automático, realizando la converción de las fuentes de datos a los atributos del nuevo conjunto de datos.
|
| 213 |
|
| 214 |
#### Who are the annotators?
|
| 215 |
|
|
|
|
| 239 |
|
| 240 |
`
|
| 241 |
spanishMedicaLllmDataset = load_dataset(SPANISH_MEDICA_LLM_DATASET, split="train")
|
| 242 |
+
spanishMedicaLllmDataset =
|
| 243 |
+
spanishMedicaLllmDataset.filter(lambda example: example["topic_type"] in ['medical_diagnostic' | 'medical_topic'])
|
| 244 |
`
|
| 245 |
|
| 246 |
### Recommendations
|
|
|
|
| 253 |
|
| 254 |
Los usuarios deben ser conscientes de los riesgos, sesgos y limitaciones del conjunto de datos.
|
| 255 |
|
| 256 |
+
Para el autojuste de un LLM se sugiere tener en cuenta las filas donde el tipo del tópico (ed., campo topic_type) tenga valores: `medical_topic`,
|
| 257 |
+
`medical_diagnostic`, `answer`, `natural_medicine_topic`. Porque indica que este campo no está vacio y tiene valor para la creación de intrucciones de la
|
| 258 |
+
forma pregunta y respuestas.
|
| 259 |
+
|
| 260 |
+
Para el prentrenamiento de un LLM se sugiere tener en cuenta cuando el campo `raw_text_type` sea igual a `open_text`. Esto indica que el texto
|
| 261 |
+
presente no forma parte de un formato pregunta/respuesta pero tiene un valor importante para el prentrenamiento de un LLM.
|
| 262 |
|
| 263 |
<!--
|
| 264 |
In case of using this dataset for the LLM training or finetuning for natural language generating with a production
|