fix namespace
Browse files- README.md +1 -1
- chat_transformers.py +1 -1
README.md
CHANGED
|
@@ -97,7 +97,7 @@ trainer:
|
|
| 97 |
num_train_epochs: 3
|
| 98 |
lr_scheduler_type: cosine
|
| 99 |
warmup_steps: 16
|
| 100 |
-
optim:
|
| 101 |
metric_for_best_model: eval_loss
|
| 102 |
load_best_model_at_end: true
|
| 103 |
save_total_limit: 2
|
|
|
|
| 97 |
num_train_epochs: 3
|
| 98 |
lr_scheduler_type: cosine
|
| 99 |
warmup_steps: 16
|
| 100 |
+
optim: adamw_8bit
|
| 101 |
metric_for_best_model: eval_loss
|
| 102 |
load_best_model_at_end: true
|
| 103 |
save_total_limit: 2
|
chat_transformers.py
CHANGED
|
@@ -5,7 +5,7 @@ from peft import PeftModel
|
|
| 5 |
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig, BitsAndBytesConfig
|
| 6 |
|
| 7 |
MODEL_BASE = "t-tech/T-lite-it-1.0"
|
| 8 |
-
MODEL_ADAPTER = "
|
| 9 |
|
| 10 |
SYSTEM_PROMPT = "Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>"
|
| 11 |
|
|
|
|
| 5 |
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig, BitsAndBytesConfig
|
| 6 |
|
| 7 |
MODEL_BASE = "t-tech/T-lite-it-1.0"
|
| 8 |
+
MODEL_ADAPTER = "ZeroAgency/o1_t-lite-it-1.0_lora"
|
| 9 |
|
| 10 |
SYSTEM_PROMPT = "Вы — ИИ-помощник. Отформатируйте свои ответы следующим образом: <Thought> Ваши мысли (понимание, рассуждения) </Thought> <output> Ваш ответ </output>"
|
| 11 |
|