NewJetsada/ScholarLens
ScholarLens คือ LoRA adapter ที่ fine-tune โมเดล Qwen/Qwen1.5-1.8B-Chat
เพื่อสร้าง structured feedback (JSON format) สำหรับ scholarship essays โดยเฉพาะ
จุดประสงค์คือช่วยให้นักเรียน/นักวิจัยได้รับ feedback เชิงโครงสร้าง (Strengths / Weaknesses / Scores / Summary)
เพื่อปรับปรุงการเขียนเรียงความสมัครทุนการศึกษา
Intended Use & Limitations
- ใช้สำหรับ ให้ feedback เชิงโครงสร้างใน scholarship essays
- ไม่เหมาะกับงานด้าน กฎหมาย, การแพทย์, หรือคำแนะนำที่มีผลกระทบสูง
- ใช้เพื่อ ช่วยพัฒนา/ฝึกฝนการเขียน ไม่ควรถูกมองว่าเป็น feedback ที่สามารถเชื่อได้ 100%
Training Details
- Base model:
Qwen/Qwen1.5-1.8B-Chat - Fine-tuning: QLoRA (4-bit quantization)
- LoRA config:
- r = 4
- alpha = 16
- dropout = 0.05
- target modules =
q_proj, v_proj, k_proj, o_proj
- Training setup:
- epochs = 2
- batch size = 1 (accumulation = 24)
- max length = 256
- optimizer =
adamw_torch - learning rate = 2e-4, cosine schedule, warmup ratio = 0.03
- Hardware: Google Colab T4 (16GB VRAM)
- Libraries:
transformers,trl==0.23,peft,accelerate,bitsandbytes
Dataset
- Records: 1000 examples
- Format: instruction → essay → structured feedback (JSON-like text)
- Source: synthetic + curated essay samples
- Cleaning: normalized spacing, JSON validity ensured
- Split: train-only (1000), eval = held-out manual testing
Evaluation
- Automatic checks:
- JSON validity rate: ~100%
- Length & structure matching
- Planned human eval:
- ความถูกต้องของ feedback
- ประโยชน์ต่อการปรับปรุง essay
- ความชัดเจนและภาษาที่เหมาะสม
Safety & Bias
- โมเดลอาจสะท้อน bias จาก dataset ที่สร้างขึ้น (synthetic/curated)
- Feedback อาจ ให้ความสำคัญกับโครงสร้างมากกว่าเนื้อหาเชิงลึก
- ผู้ใช้งานควรใช้เป็น แนวทางเสริม ไม่ใช่ตัวตัดสินขั้นสุดท้าย
Example Usage
โหลด Adapter (PEFT)
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
from peft import PeftModel
import torch
base = "Qwen/Qwen1.5-1.8B-Chat"
adapter = "NewJetsada/ScholarLens"
tok = AutoTokenizer.from_pretrained(base, trust_remote_code=True)
bnb = BitsAndBytesConfig(
load_in_4bit=True, bnb_4bit_quant_type="nf4",
bnb_4bit_compute_dtype=torch.float16, bnb_4bit_use_double_quant=True
)
model = AutoModelForCausalLM.from_pretrained(
base, quantization_config=bnb, device_map="auto", trust_remote_code=True
)
model = PeftModel.from_pretrained(model, adapter)
model.eval()
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for NewJetsada/ScholarLens
Base model
Qwen/Qwen1.5-1.8B-Chat