Update README.md
Browse files
README.md
CHANGED
|
@@ -3,7 +3,7 @@ language:
|
|
| 3 |
- fr
|
| 4 |
license: mit
|
| 5 |
datasets:
|
| 6 |
-
- UMA-IA/
|
| 7 |
base_model: mistralai/Mistral-7B-v0.1
|
| 8 |
tags:
|
| 9 |
- aerospace
|
|
@@ -15,18 +15,18 @@ pipeline_tag: text-generation
|
|
| 15 |
---
|
| 16 |
|
| 17 |
## Model Details
|
| 18 |
-
**Model Name:** UMA-IA/
|
| 19 |
**Authors:**
|
| 20 |
- **Youri LALAIN**, Engineering student at French Engineering School ECE
|
| 21 |
- **Lilian RAGE**, Engineering student at French Engineering School ECE
|
| 22 |
**Base Model:** [Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
|
| 23 |
-
**Fine-tuned Dataset:** [UMA-IA/
|
| 24 |
**License:** Apache 2.0
|
| 25 |
|
| 26 |
## Model Description
|
| 27 |
# Mistral-7B Fine-tuné sur les composants aérospatiaux
|
| 28 |
|
| 29 |
-
|
| 30 |
|
| 31 |
## Capacités
|
| 32 |
- Réponses techniques concernant les composants aérospatiaux
|
|
@@ -70,7 +70,7 @@ LLM_Components_Finetuned_V1 est une version spécialisée du modèle Mistral-7B,
|
|
| 70 |
- Applications pédagogiques en ingénierie aérospatiale
|
| 71 |
|
| 72 |
## Détails d'entraînement
|
| 73 |
-
Ce modèle a été fine-tuné sur le dataset UMA-IA/
|
| 74 |
|
| 75 |
## Comment utiliser
|
| 76 |
|
|
@@ -80,7 +80,7 @@ Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de H
|
|
| 80 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 81 |
|
| 82 |
# Charger le modèle et le tokenizer
|
| 83 |
-
model_name = "
|
| 84 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
| 85 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 86 |
|
|
|
|
| 3 |
- fr
|
| 4 |
license: mit
|
| 5 |
datasets:
|
| 6 |
+
- UMA-IA/VELA-Components-v2
|
| 7 |
base_model: mistralai/Mistral-7B-v0.1
|
| 8 |
tags:
|
| 9 |
- aerospace
|
|
|
|
| 15 |
---
|
| 16 |
|
| 17 |
## Model Details
|
| 18 |
+
**Model Name:** UMA-IA/CENTAURUS-Components-v2
|
| 19 |
**Authors:**
|
| 20 |
- **Youri LALAIN**, Engineering student at French Engineering School ECE
|
| 21 |
- **Lilian RAGE**, Engineering student at French Engineering School ECE
|
| 22 |
**Base Model:** [Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
|
| 23 |
+
**Fine-tuned Dataset:** [UMA-IA/VELA-Components-v2](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Components_LLM)
|
| 24 |
**License:** Apache 2.0
|
| 25 |
|
| 26 |
## Model Description
|
| 27 |
# Mistral-7B Fine-tuné sur les composants aérospatiaux
|
| 28 |
|
| 29 |
+
UMA-IA/CENTAURUS-Components-v2 est une version spécialisée du modèle Mistral-7B, fine-tunée pour fournir des réponses précises et concises aux questions techniques concernant les composants aérospatiaux et aéronautiques. Le modèle s'appuie sur le dataset UMA-IA/VELA-Components-v2 pour améliorer sa compréhension des composants de propulsion, leurs caractéristiques techniques, et leur maintenance.
|
| 30 |
|
| 31 |
## Capacités
|
| 32 |
- Réponses techniques concernant les composants aérospatiaux
|
|
|
|
| 70 |
- Applications pédagogiques en ingénierie aérospatiale
|
| 71 |
|
| 72 |
## Détails d'entraînement
|
| 73 |
+
Ce modèle a été fine-tuné sur le dataset UMA-IA/VELA-Components-v2, qui contient environ 800 paires question-réponse concernant divers composants aérospatiaux. Le processus de fine-tuning a utilisé la technique LoRA (Low-Rank Adaptation) pour adapter efficacement le modèle Mistral-7B à ce domaine spécifique.
|
| 74 |
|
| 75 |
## Comment utiliser
|
| 76 |
|
|
|
|
| 80 |
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 81 |
|
| 82 |
# Charger le modèle et le tokenizer
|
| 83 |
+
model_name = "UMA-IA/CENTAURUS-Components-v2"
|
| 84 |
model = AutoModelForCausalLM.from_pretrained(model_name)
|
| 85 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 86 |
|