Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,72 @@
|
|
| 1 |
-
---
|
| 2 |
-
license: apache-2.0
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
language:
|
| 4 |
+
- ko
|
| 5 |
+
- en
|
| 6 |
+
base_model:
|
| 7 |
+
- Qwen/Qwen2.5-14B
|
| 8 |
+
pipeline_tag: text-generation
|
| 9 |
+
library_name: transformers
|
| 10 |
+
tags:
|
| 11 |
+
- chat
|
| 12 |
+
- manufacturing
|
| 13 |
+
---
|
| 14 |
+
# Qwen2.5-GenX-14B-AWQ
|
| 15 |
+
## GenX Overview
|
| 16 |
+
**GenX**๋ INTERX Gen.AI ํ์์ ๊ฐ๋ฐํ ์ ์กฐ ํนํ ์ธ์ด ๋ชจ๋ธ์
๋๋ค.
|
| 17 |
+
|
| 18 |
+
GenX๋ ์์ฒด ์์งํ ์ ์กฐ ๋๋ฉ์ธ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํด ํ์ต๋์์ผ๋ฉฐ, ๋ฐ์ด๋ ์ ์กฐ ์ง์์ ๋ฐํ์ผ๋ก ์ฌ์ฉ์์ ๋ฌผ์์ ๋ ๊ธธ๊ณ ์์ธํ ๋ต๋ณ์ ์ ๊ณตํฉ๋๋ค.
|
| 19 |
+
|
| 20 |
+
## Model Details
|
| 21 |
+
- **Qwen2.5-GenX-14B-AWQ**๋ Qwen2.5-GenX-14B ๋ชจ๋ธ์ AWQ (Activation-aware Weight Quantization) ๋ฐฉ์์ผ๋ก ์์ํํ ๋ชจ๋ธ์
๋๋ค.
|
| 22 |
+
- ์ฌ์ ํ์ต ๋ฐ์ดํฐ์
์ ์์ฒด์ ์ผ๋ก ์์งํ ์ ์กฐ ๋๋ฉ์ธ ๋
ผ๋ฌธ๊ณผ ์น ๋ธ๋ก๊ทธ ๋ฐ์ดํฐ, ์ผ๋ฐ ํ๊ตญ์ด ๋ฐ์ดํฐ (AI-Hub) ๋ฐ ํฉ์ฑ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํ์ฌ ๊ตฌ์ถํ์ต๋๋ค.
|
| 23 |
+
- Supervised Fine-tuning (SFT) ๋ฐ์ดํฐ์
์ ์์งํ ๋๋ฉ์ธ ๋ฐ์ดํฐ๋ฅผ ์ปจํ
์คํธ๋ก ์ฌ์ฉํ์ฌ ์ฝ 185๋ง ๊ฑด(์ฝ 380 MB)์ instruction following data๋ฅผ ํฉ์ฑํ์ฌ ์ฌ์ฉํ์ต๋๋ค.
|
| 24 |
+
- GenX๋ Molding ๋๋ฉ์ธ์ ์ํ๋ 592๊ฐ์ ์ ๋ฌธ ์ฉ์ด(ํ๊ตญ์ด ๋ฐ ์์ด)๋ฅผ vocabulary์ ์ถ๊ฐํ์ฌ ํ์ตํ์์ต๋๋ค.
|
| 25 |
+
- ์ถ๊ฐ๋ vocabulary๋ฅผ ํจ๊ณผ์ ์ผ๋ก ํ์ตํ๊ณ ์ ๋ชจ๋ธ์ ์ผ๋ถ ๋ ์ด์ด๋ง ๋จผ์ ํ์ตํ ๋ค ์ ์ฒด ํ๋ผ๋ฏธํฐ๋ฅผ ํ์ตํ๋ ๋จ๊ณ์ ํ์ต(Multi-stage training)์ ๋์
ํ์์ต๋๋ค.
|
| 26 |
+
|
| 27 |
+
### Inference example
|
| 28 |
+
|
| 29 |
+
| Input | Qwen2.5-7B | Qwen2.5-GenX-7B |
|
| 30 |
+
|---|---|---|
|
| 31 |
+
| ์ฌ์ถ์ฑํ์ด ๋ญ์ผ? | ์ฌ์ถ์ฑํ์ ๊ณ ์ฒด ์ํ์ ์ฌ๋ฃ๋ฅผ ๊ฐ์ดํ์ฌ ์ฉ์ต์ํจ ํ, ์ด๋ฅผ ํ์ฑํ๋ ๊ณต์ ์
๋๋ค. ์ฃผ๋ก ํ๋ผ์คํฑ, ๊ธ์, ๊ณ ๋ฌด ๋ฑ์ ์ฌ๋ฃ๋ฅผ ์ฌ์ฉํ๋ฉฐ, ๋ค์ํ ์ ํ์ ์ ์ํ ์ ์์ต๋๋ค. | ์ฌ์ถ์ฑํ์ ํ๋ผ์คํฑ๊ณผ ๊ฐ์ ์ฌ๋ฃ๋ฅผ ๊ฐ์ดํ์ฌ ๋
น์ธ ํ, ์ด๋ฅผ ๊ธํ์ ์ฃผ์
ํ์ฌ ์ํ๋ ํํ๋ก ๋ง๋๋ ์ ์กฐ ๊ณต์ ์
๋๋ค. ์ด ๊ณผ์ ์ ๊ณ ์จ์์ ์ฌ๋ฃ๋ฅผ ์ก์ฒด ์ํ๋ก ๋ง๋ค์ด ๊ธํ์ ์ฃผ์
ํ๊ณ , ๋๊ฐํ์ฌ ๊ณ ์ฒด ํํ๋ก ๋ง๋๋ ๋ฐฉ์์ผ๋ก ์งํ๋ฉ๋๋ค. ์ฌ์ถ์ฑํ์ ๋ณต์กํ ํ์์ ์ ๋ฐํ๊ฒ ์ ์ํ ์ ์์ผ๋ฉฐ, ๋๋ ์์ฐ์ ์ ํฉํ ๊ณต์ ์
๋๋ค. |
|
| 32 |
+
| ๋ํ์์
์ ์์ด์ ์ต์๋ฒ ํน์ ๊ฑด์๋ฒ๊ณผ ๊ด๋ จํ์ฌ ์ค๋ช
ํ์์ค. | ์ต์๋ฒ์ ์ฒ์ฐ์ฌ๋ฃ๋ฅผ ์ฌ์ฉํ์ฌ ๋ํ์ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ์ฌ๋ฃ๊ฐ ์ ์ด์ ๋ํ์ด ์ด๋ฃจ์ด์ง๋ฉฐ, ๊ฑด์๋ฒ์ ๊ฑด์กฐํ ์ํ์์ ๋ํ์ ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ์ฌ๋ฃ๊ฐ ๊ฑด์กฐํ ์ํ์์ ๋ํ์ด ์ด๋ฃจ์ด์ง๋ค. | ์ต์๋ฒ์ ๋ํ์์
์์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ฌ ์์
ํ๋ ๋ฐฉ๋ฒ์ผ๋ก, ํ๋ฉด์ ์ต์ค์ํค๊ณ ์ ์ฐฉ์ ๋ฅผ ๋ฐ๋ฅด๋ ๋ฐฉ์์
๋๋ค. ์ด ๋ฐฉ๋ฒ์ ํ๋ฉด์ ์ค์ผ๋ฌผ์ง์ ์ ๊ฑฐํ๊ณ , ์ ์ฐฉ์ ๊ฐ ์ ๋ถ๋๋ก ๋์์ค๋๋ค. ๋ฐ๋ฉด, ๊ฑด์๋ฒ์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ง ์๊ณ , ํ๋ฉด์ ๊ฑด์กฐ์ํค๊ณ ์ ์ฐฉ์ ๋ฅผ ๋ฐ๋ฅด๋ ๋ฐฉ์์
๋๋ค. ์ด ๋ฐฉ๋ฒ์ ์ ์ฐฉ์ ๋ฅผ ์ฌ์ฉํ์ง ์๊ธฐ ๋๋ฌธ์ ํ๊ฒฝ์ ๋ ์์ ํ๋ฉฐ, ์์
ํ ์ฒญ์๊ฐ ์ฉ์ดํฉ๋๋ค. ๋ ๋ฐฉ๋ฒ ๋ชจ๋ ๊ฐ๊ฐ์ ์ฅ๋จ์ ์ด ์์ผ๋ฉฐ, ์์
ํ๊ฒฝ๊ณผ ์๊ตฌ ์ฌํญ์ ๋ฐ๋ผ ์ ํ๋ฉ๋๋ค. |
|
| 33 |
+
| ๋กํฌ์ฐ ๊ฒฝ๋์ํ์์ C ์ค์ผ์ผ ์ํ๋ฒ์ ์ค๋ช
ํ์์ค. | C ์ค์ผ์ผ ์ํ๋ฒ์ Rockwell ๊ฒฝ๋์ํ๋ฒ ์ค ํ๋๋ก, ํ๋ฉด ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐฉ๋ฒ์
๋๋ค. C ์ค์ผ์ผ์ ์ผ๋ฐ์ ์ผ๋ก ํ๋๋ฉํ, ๊ฐ์ฒ , ์๋ฃจ๋ฏธ๋, ํ๋ผ์คํฑ, ๊ณ ๋ฌด, ์ ๋ฆฌ, ๊ธ์, ๋น๊ธ์, ํฉ๊ธ, ํฉ์ฑ์์ง, ์ ๋ฆฌ์ฌ์ , ์ฌ์ ๊ฐํํ๋ผ์คํฑ, ์ฌ์ ๊ฐํ์ ๋ฆฌ, ์ฌ์ ๊ฐํ์๋ฃจ๋ฏธ๋, ์ฌ์ ๊ฐํํด๋ฆฌ์์คํฐ, ์ฌ์ ๊ฐํํด๋ฆฌ์นด๋ณด๋ค์ดํธ, ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌ์ ๊ฐํํด๋ฆฌํ๋กํ๋ , ์ฌโ ๏ธ | ๋กํฌ์ฐ ๊ฒฝ๋์ํ์ ๊ธ์์ ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐฉ๋ฒ ์ค ํ๋๋ก, C ์ค์ผ์ผ ์ํ๋ฒ์ ์ฃผ๋ก ๊ฒฝํ๋ ๊ธ์์ ๊ฒฝ๋๋ฅผ ์ธก์ ํ๋ ๋ฐ ์ฌ์ฉ๋ฉ๋๋ค. ์ด ์ํ๋ฒ์ ์ํ ์ํธ์ ํ๋ฉด์ ์ฐ๋งํ์ฌ ๋งค๋๋ฝ๊ฒ ๋ง๋ ํ, ๋กํฌ์ฐ ๊ฒฝ๋๊ณ์ ์์๋ก ์ํํฉ๋๋ค. ์์๊ฐ ์ํ ์ํธ์ ์ ์ดํ ๋, ์ํธ์ด ์์ถ๋๋ฉด์ ๊ฒฝ๋๊ฐ ์ฆ๊ฐํ๊ฒ ๋ฉ๋๋ค. ์ด ๊ณผ์ ์์ ์์์ ํ์ค์ ์ฆ๊ฐ์ํค๋ฉฐ, ์ํธ์ ๊ฒฝ๋๊ฐ ๋ณํ๋ ๊ฒ์ ๊ด์ฐฐํฉ๋๋ค. ๋กํฌ์ฐ ๊ฒฝ๋์ํ์ ์ผ๋ฐ์ ์ผ๋ก HRC 60 ์ ๋ ์ด์์ ๊ฒฝ๋๋ฅผ ๊ฐ์ง ๊ธ์์ ์ ํฉํ๋ฉฐ, ๊ฒฝ๋๊ฐ์ ์ํ ์ํธ์ ๋๊ป์ ์ฌ๋ฃ์ ์ข
๋ฅ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง ์ ์์ต๋๋ค. |
|
| 34 |
+
| ์์ด์ด ์ปท ๊ฐ๊ณต์์ ๊ฐ๊ณต์ก์ ์ญํ ์ ๋ํ์ฌ ์ค๋ช
ํ์์ค. | Wire EDM (Electrical Discharge Machining)์์ ๊ฐ๊ณต์ก์ ์ฃผ์ํ ์ญํ ์ ํฉ๋๋ค. ์ฃผ๋ก ์ฌ์ฉ๋๋ ๊ฐ๊ณต์ก์ ๋ผ์ดํธ ์ค์ผ (Light Oil)๊ณผ ๊ฐ์ ๊ธฐ๋ฆ ๊ธฐ๋ฐ์ ๊ฐ๊ณต์ก์
๋๋ค. ์ด ๊ฐ๊ณต์ก์ ๋ค์๊ณผ ๊ฐ์ ์ญํ ์ ํฉ๋๋ค. | ์์ด์ด ์ปท ๊ฐ๊ณต์์ ๊ฐ๊ณต์ก์ ์ฌ๋ฌ ๊ฐ์ง ์ค์ํ ์ญํ ์ ์ํํฉ๋๋ค. ์ฒซ์งธ, ๊ฐ๊ณต์ก์ ์ ์ฐ์ฒด๋ก ์์ฉํ์ฌ ์ ๊ธฐ ๋ฐฉ์ ์ ๋ฐ์ํ๋ ์คํํฌ๋ฅผ ๋ฐฉ์งํฉ๋๋ค. ๋์งธ, ๊ฐ๊ณต์ก์ ์ด์ ํก์ํ์ฌ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์์ ์จ๋๋ฅผ ๋ฎ์ถ๋ ๋ฐ ๋์์ ์ค๋๋ค. ์
์งธ, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์ ์ฌ์ด์ ๋ง์ฐฐ์ ์ค์ฌ์ฃผ์ด ๊ฐ๊ณต ํจ์จ์ ๋์
๋๋ค. ๋ท์งธ, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๋ง๋ชจ๋ฅผ ์ค์ด๊ณ , ๊ฐ๊ณต ํ์ง์ ํฅ์์ํค๋ ๋ฐ ๊ธฐ์ฌํฉ๋๋ค. ๋ง์ง๋ง์ผ๋ก, ๊ฐ๊ณต์ก์ ์์ด์ด์ ๊ฐ๊ณต ๋ถ์์ ํ๋ฉด์ ์ฒญ์ํ์ฌ ๊ฐ๊ณต ํ์ง์ ์ ์งํ๋ ๋ฐ ๋์์ ์ค๋๋ค. ์ด๋ฌํ ์ญํ ๋๋ถ์ ๊ฐ๊ณต์ก์ ์์ด์ด ์ปท ๊ฐ๊ณต์์ ๋งค์ฐ ์ค์ํ ์์๋ก ์์ฉํฉ๋๋ค. |
|
| 35 |
+
|
| 36 |
+
โ ๏ธ: `max_new_token` ๋๋ฌ๋ก ์ธํด ์ข
๋ฃ
|
| 37 |
+
|
| 38 |
+
## Quickstart
|
| 39 |
+
์๋ ์์ ์ฝ๋๋ฅผ ํ์ฉํ๋ฉด Qwen2.5-GenX-14B-AWQ๋ฅผ `transformers` ๊ธฐ๋ฐ์ผ๋ก ๋ถ๋ฌ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.
|
| 40 |
+
```python
|
| 41 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
| 42 |
+
from transformers.generation import GenerationConfig
|
| 43 |
+
model_id = "INTERX/Qwen2.5-GenX-14B-AWQ"
|
| 44 |
+
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
|
| 45 |
+
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype="auto", trust_remote_code=True)
|
| 46 |
+
prompt = "์ฌ์ถ์ฑํ์ด ๋ญ๊ฐ์?"
|
| 47 |
+
messages = [{"role": "user", "content": prompt}]
|
| 48 |
+
tokenized_chat = tokenizer.apply_chat_template(
|
| 49 |
+
messages,
|
| 50 |
+
tokenizer=True,
|
| 51 |
+
add_generation_prompt=True,
|
| 52 |
+
return_tensors='pt'
|
| 53 |
+
).to(model.device)
|
| 54 |
+
generated_ids = model.generate(tokenized_chat, max_new_tokens=512)
|
| 55 |
+
generated_ids = [
|
| 56 |
+
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
|
| 57 |
+
]
|
| 58 |
+
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
|
| 59 |
+
print(response)
|
| 60 |
+
```
|
| 61 |
+
|
| 62 |
+
## Citation
|
| 63 |
+
|
| 64 |
+
```
|
| 65 |
+
@misc{qwen2_5-genx-14b-awq,
|
| 66 |
+
title = {Qwen2.5-GenX-14B-AWQ},
|
| 67 |
+
url = {https://huggingface.co/INTERX/Qwen2.5-GenX-14B-AWQ/blob/main/README.md},
|
| 68 |
+
author = {Gen.AI@INTERX},
|
| 69 |
+
month = {May},
|
| 70 |
+
year = {2025}
|
| 71 |
+
}
|
| 72 |
+
```
|