hf_gemma3_4b_155555-checkpoint-12000
์ด ๋ชจ๋ธ์ Gemma3 4B ๋ชจ๋ธ์ ํ์ธํ๋ํ ์ฒดํฌํฌ์ธํธ์ ๋๋ค.
๋ชจ๋ธ ์ ๋ณด
- ๋ฒ ์ด์ค ๋ชจ๋ธ: hf_gemma3_4b_155555
 - ์ฒดํฌํฌ์ธํธ: checkpoint-12000
 - ๋ชจ๋ธ ํฌ๊ธฐ: 4B parameters
 - ํ์ : Causal Language Model
 - ๋ผ์ด์ ์ค: Apache 2.0
 
์ฌ์ฉ ๋ฐฉ๋ฒ
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "NTIS/hf_gemma3_4b_155555-checkpoint-12000"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto"
)
# ํ
์คํธ ์์ฑ
text = "์๋
ํ์ธ์"
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(
    **inputs, 
    max_length=100, 
    do_sample=True, 
    temperature=0.7,
    pad_token_id=tokenizer.eos_token_id
)
result = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(result)
ํ๋ จ ์ ๋ณด
- ์ด ์ฒดํฌํฌ์ธํธ๋ ํน์  ์คํ ์์ ์ ์ฅ๋ ๋ชจ๋ธ์ ๋๋ค
 - ์ฑ๋ฅ์ ์ฒดํฌํฌ์ธํธ๋ง๋ค ๋ค๋ฅผ ์ ์์ต๋๋ค
 
์ฃผ์์ฌํญ
- ์ด ๋ชจ๋ธ์ ์ฐ๊ตฌ/์คํ ๋ชฉ์ ์ผ๋ก ์ ๊ณต๋ฉ๋๋ค
 - ์์ ์  ์ฌ์ฉ ์ ์ ๋ผ์ด์ ์ค๋ฅผ ํ์ธํ์ธ์
 - GPU ๋ฉ๋ชจ๋ฆฌ๊ฐ ์ถฉ๋ถํ์ง ํ์ธํ์ธ์ (์ต์ 8GB ๊ถ์ฅ)
 
- Downloads last month
 - 5