Spaces:
Runtime error
Runtime error
| from transformers import AutoTokenizer, AutoModelForCausalLM | |
| import torch | |
| # Charger le modèle | |
| model_name = "Qwen/Qwen3-4B-Thinking-2507" | |
| tokenizer = AutoTokenizer.from_pretrained(model_name) | |
| model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype=torch.float16) | |
| # Prompt maître | |
| system_message = "Tu es un formateur de formateurs spécialisé en analyse réflexive des pratiques enseignantes." | |
| # Exemple de conversation | |
| messages = [ | |
| {"role": "system", "content": system_message}, | |
| {"role": "user", "content": "Salut, peux-tu analyser cette situation ?"} | |
| ] | |
| # Préparer l'entrée pour le modèle | |
| inputs = tokenizer.apply_chat_template( | |
| messages, | |
| add_generation_prompt=True, | |
| tokenize=True, | |
| return_dict=True, | |
| return_tensors="pt" | |
| ).to(model.device) | |
| # Génération de réponse | |
| outputs = model.generate(**inputs, max_new_tokens=200) | |
| response = tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:], skip_special_tokens=True) | |
| print("Réponse de l'IA :", response) | |