Youlln commited on
Commit
b762300
·
verified ·
1 Parent(s): aa85e0b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -6
README.md CHANGED
@@ -3,7 +3,7 @@ language:
3
  - fr
4
  license: mit
5
  datasets:
6
- - UMA-IA/UMA_Dataset_Components_LLM
7
  base_model: mistralai/Mistral-7B-v0.1
8
  tags:
9
  - aerospace
@@ -15,18 +15,18 @@ pipeline_tag: text-generation
15
  ---
16
 
17
  ## Model Details
18
- **Model Name:** UMA-IA/LLM_Components_Finetuned
19
  **Authors:**
20
  - **Youri LALAIN**, Engineering student at French Engineering School ECE
21
  - **Lilian RAGE**, Engineering student at French Engineering School ECE
22
  **Base Model:** [Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
23
- **Fine-tuned Dataset:** [UMA-IA/UMA_Dataset_Components_LLM](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Components_LLM)
24
  **License:** Apache 2.0
25
 
26
  ## Model Description
27
  # Mistral-7B Fine-tuné sur les composants aérospatiaux
28
 
29
- LLM_Components_Finetuned_V1 est une version spécialisée du modèle Mistral-7B, fine-tunée pour fournir des réponses précises et concises aux questions techniques concernant les composants aérospatiaux et aéronautiques. Le modèle s'appuie sur le dataset SpaceYL/Components_Aerospatiaux_Dataset pour améliorer sa compréhension des composants de propulsion, leurs caractéristiques techniques, et leur maintenance.
30
 
31
  ## Capacités
32
  - Réponses techniques concernant les composants aérospatiaux
@@ -70,7 +70,7 @@ LLM_Components_Finetuned_V1 est une version spécialisée du modèle Mistral-7B,
70
  - Applications pédagogiques en ingénierie aérospatiale
71
 
72
  ## Détails d'entraînement
73
- Ce modèle a été fine-tuné sur le dataset UMA-IA/UMA_Dataset_Components_LLM, qui contient environ 800 paires question-réponse concernant divers composants aérospatiaux. Le processus de fine-tuning a utilisé la technique LoRA (Low-Rank Adaptation) pour adapter efficacement le modèle Mistral-7B à ce domaine spécifique.
74
 
75
  ## Comment utiliser
76
 
@@ -80,7 +80,7 @@ Vous pouvez charger le modèle en utilisant la bibliothèque `transformers` de H
80
  from transformers import AutoModelForCausalLM, AutoTokenizer
81
 
82
  # Charger le modèle et le tokenizer
83
- model_name = "SpaceYL/LLM_Components_Finetuned_V1"
84
  model = AutoModelForCausalLM.from_pretrained(model_name)
85
  tokenizer = AutoTokenizer.from_pretrained(model_name)
86
 
 
3
  - fr
4
  license: mit
5
  datasets:
6
+ - UMA-IA/VELA-Components-v2
7
  base_model: mistralai/Mistral-7B-v0.1
8
  tags:
9
  - aerospace
 
15
  ---
16
 
17
  ## Model Details
18
+ **Model Name:** UMA-IA/CENTAURUS-Components-v2
19
  **Authors:**
20
  - **Youri LALAIN**, Engineering student at French Engineering School ECE
21
  - **Lilian RAGE**, Engineering student at French Engineering School ECE
22
  **Base Model:** [Mistral-7B-v0.1](https://huggingface.co/mistralai/Mistral-7B-v0.1)
23
+ **Fine-tuned Dataset:** [UMA-IA/VELA-Components-v2](https://huggingface.co/datasets/UMA-IA/UMA_Dataset_Components_LLM)
24
  **License:** Apache 2.0
25
 
26
  ## Model Description
27
  # Mistral-7B Fine-tuné sur les composants aérospatiaux
28
 
29
+ UMA-IA/CENTAURUS-Components-v2 est une version spécialisée du modèle Mistral-7B, fine-tunée pour fournir des réponses précises et concises aux questions techniques concernant les composants aérospatiaux et aéronautiques. Le modèle s'appuie sur le dataset UMA-IA/VELA-Components-v2 pour améliorer sa compréhension des composants de propulsion, leurs caractéristiques techniques, et leur maintenance.
30
 
31
  ## Capacités
32
  - Réponses techniques concernant les composants aérospatiaux
 
70
  - Applications pédagogiques en ingénierie aérospatiale
71
 
72
  ## Détails d'entraînement
73
+ Ce modèle a été fine-tuné sur le dataset UMA-IA/VELA-Components-v2, qui contient environ 800 paires question-réponse concernant divers composants aérospatiaux. Le processus de fine-tuning a utilisé la technique LoRA (Low-Rank Adaptation) pour adapter efficacement le modèle Mistral-7B à ce domaine spécifique.
74
 
75
  ## Comment utiliser
76
 
 
80
  from transformers import AutoModelForCausalLM, AutoTokenizer
81
 
82
  # Charger le modèle et le tokenizer
83
+ model_name = "UMA-IA/CENTAURUS-Components-v2"
84
  model = AutoModelForCausalLM.from_pretrained(model_name)
85
  tokenizer = AutoTokenizer.from_pretrained(model_name)
86