Upload folder using huggingface_hub
Browse files- .gitattributes +1 -0
- 1_Pooling/config.json +10 -0
- README.md +748 -0
- added_tokens.json +28 -0
- chat_template.jinja +85 -0
- config.json +60 -0
- config_sentence_transformers.json +14 -0
- merges.txt +0 -0
- model.safetensors +3 -0
- modules.json +20 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +31 -0
- tokenizer.json +3 -0
- tokenizer_config.json +239 -0
- vocab.json +0 -0
.gitattributes
CHANGED
|
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
|
|
|
|
|
| 33 |
*.zip filter=lfs diff=lfs merge=lfs -text
|
| 34 |
*.zst filter=lfs diff=lfs merge=lfs -text
|
| 35 |
*tfevents* filter=lfs diff=lfs merge=lfs -text
|
| 36 |
+
tokenizer.json filter=lfs diff=lfs merge=lfs -text
|
1_Pooling/config.json
ADDED
|
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"word_embedding_dimension": 1024,
|
| 3 |
+
"pooling_mode_cls_token": false,
|
| 4 |
+
"pooling_mode_mean_tokens": false,
|
| 5 |
+
"pooling_mode_max_tokens": false,
|
| 6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
| 7 |
+
"pooling_mode_weightedmean_tokens": false,
|
| 8 |
+
"pooling_mode_lasttoken": true,
|
| 9 |
+
"include_prompt": true
|
| 10 |
+
}
|
README.md
ADDED
|
@@ -0,0 +1,748 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
language:
|
| 3 |
+
- multilingual
|
| 4 |
+
license: apache-2.0
|
| 5 |
+
tags:
|
| 6 |
+
- sentence-transformers
|
| 7 |
+
- sentence-similarity
|
| 8 |
+
- feature-extraction
|
| 9 |
+
- dense
|
| 10 |
+
- generated_from_trainer
|
| 11 |
+
- dataset_size:73994
|
| 12 |
+
- loss:MatryoshkaLoss
|
| 13 |
+
- loss:MultipleNegativesRankingLoss
|
| 14 |
+
base_model: Qwen/Qwen3-Embedding-0.6B
|
| 15 |
+
widget:
|
| 16 |
+
- source_sentence: Under what circumstances can a judge's ruling from a place of wrongdoers
|
| 17 |
+
be executed, according to Islamic law?
|
| 18 |
+
sentences:
|
| 19 |
+
- 'بالتصرف دون صاحبه(). \n\nأما الوصايا التي يجوز تنفيذها والتي لا يجوز تنفيذها،
|
| 20 |
+
وشروط الموصي والوصي فيرجع لمعرفة ذلك إلى مصطلح «وصية». \n\nتنفيذ حكم قاضي البغاة:
|
| 21 |
+
\n\n9 - لا خلاف بين الفقهاء في أنه لو ظهر أهل البغي على بلد فولوا قاضيا منهم،
|
| 22 |
+
فرفع حكمه إلى قاضي أهل العدل نفذ من أحكامه ما ينفذ من أحكام قاضي أهل العدل بشروط
|
| 23 |
+
هي: \n\nأ - أن يكون لهم تأويل غير ظاهر البطلان، فإن لم يكن لهم تأويل فلا ينفذ
|
| 24 |
+
أحكام قاضيهم. وقال المالكية: فإن لم يكن لهم تأويل فيتعقب أحكامه، فما وجد منها
|
| 25 |
+
صوابا مضى، وما ليس كذلك رد. \n\nب - ألا يكون ممن يستبيحون دماء أهل العدل وأموالهم،
|
| 26 |
+
فإن كانوا كذلك لا تنفذ'
|
| 27 |
+
- '(زكاة الفطر). \n\nج - العشور: \n\n13 - ذهب المالكية والحنابلة إلى عدم جواز \n\nالتحول
|
| 28 |
+
عن الواجب إلى البدل في العشور(). \n\nوذهب الحنفية إلى جواز التحول عن الواجب إلى
|
| 29 |
+
البدل في العشور، وذلك للأدلة التي سبق ذكرها، وكذلك يجوز التحول من الواجب إلى الأعلى
|
| 30 |
+
فقط عند الشافعية إذا كانت الحبوب والثمار نوعا واحدا. \n\nوإن اختلفت الأنواع: أخذ
|
| 31 |
+
الواجب من كل نوع بالحصة إن لم يتعسر، فإن عسر أخذ الواجب من كل نوع بأن كثرت، وقل
|
| 32 |
+
ثمرها ففيه أوجه: \n\nالوجه الأول، وهو الصحيح: أنه يخرج من الوسط رعاية للجانبين().
|
| 33 |
+
\n\nوالثاني: يؤخذ من كل نوع بقسطه. \n\nوالثالث: من الغالب، وقيل: يؤخذ الوسط قطعا().
|
| 34 |
+
\n\nوفي الموضوع'
|
| 35 |
+
- 'ومعه أكثر العلماء() حيث لم يعدوا الموالي من الآل. أما أزواجه فذكر أبو الحسن
|
| 36 |
+
بن بطال في شرح البخاري أن الفقهاء كافة اتفقوا على أن أزواجه لا يدخلن في آله
|
| 37 |
+
الذين حرمت عليهم الصدقة،() لكن في المغني عن عائشة ما يخالف ذلك. قال: روى الخلال
|
| 38 |
+
بإسناده \n\nعن ابن أبي مليكة أن خالد بن سعيد بن العاص بعث إلى عائشة سفرة من الصدقة،
|
| 39 |
+
فردتها، وقالت: إنا آل محمد لا تحل لنا الصدقة. قال صاحب المغني: وهذا يدل على أنهن
|
| 40 |
+
من أهل بيته في تحريم الزكاة. وذكر الشيخ تقي الدين أنه يحرم عليهن الصدقة وأنهن
|
| 41 |
+
من أهل بيته في أصح الروايتين(). \n\nحكم أخذ آل البيت من الصدقة المفروضة: \n\n6
|
| 42 |
+
- إن آل محمد'
|
| 43 |
+
- source_sentence: According to which school of thought does the contract become valid
|
| 44 |
+
if it specifies planting and sowing but does not mention the quantity?
|
| 45 |
+
sentences:
|
| 46 |
+
- 'وضع الاسم العلم للمولود وغيره، وبمعنى: تحديد العوض في العقود، \n\nكالمهر والأجرة
|
| 47 |
+
والثمن، وبمعنى: التعيين بالاسم مقابل الإبهام. \n\nالألفاظ ذات الصلة: \n\nأ - التكنية:
|
| 48 |
+
\n\n2 - التكنية مصدر: كنى بتشديد النون، أي: جعل له كنية، كأبي فلان وأم فلان()
|
| 49 |
+
\n\nوتفصيل الأحكام المتعلقة بالتكنية ينظر في مصطلح (كنية). \n\nب - التلقيب: \n\n3
|
| 50 |
+
- التلقيب: مصدر لقب بتشديد القاف. واللقب واحد الألقاب، وهو ما كان مشعرا بمدح أو
|
| 51 |
+
ذم. \n\nومعناه: النبز بالتمييز(). والنبز بالألقاب المكروهة منهي عنه في : ولا
|
| 52 |
+
تنابزوا بالألقاب(). \n\nفإن قصد به التعريف فلا يدخل تحت النهي، ومن ذلك تعريف بعض
|
| 53 |
+
الأئمة المتقدمين، كالأعمش'
|
| 54 |
+
- 'من كتب الفقه وفي مصطلح (إقرار) \n\nالتناقض في الشهادة: \n\n6 - لا يخلو التناقض
|
| 55 |
+
في شهادة الشهود من أحد ثلاثة أحوال: \n\nأ - التناقض في الشها��ة قبل الحكم: \n\nإذا
|
| 56 |
+
حصل التناقض في الشهادة برجوع الشهود() عن كل أو بعض شهادتهم بعد أداء الشهادة وقبل
|
| 57 |
+
الحكم بحضور القاضي تكون شهادتهم كأن لم تكن، ولا يصح الحكم بموجب \n\nشهادتهم؛ لأن
|
| 58 |
+
الشهود لما أكذبوا أنفسهم بالرجوع تناقض كلامهم، والقضاء بالكلام المتناقض لا يجوز؛
|
| 59 |
+
لأنه لا يدري أصدقوا في الأول أم في الثاني، \n\nوهذا قول عامة أهل العلم. \n\nوقال
|
| 60 |
+
أبو ثور: يحكم بموجب هذه الشهادة؛ لأنها قد أديت فلا تبطل برجوع من شهد بها كما لو
|
| 61 |
+
رجع الشهود بعد الحكم().'
|
| 62 |
+
- 'يضر بالأرض. \n\nأما إذا قال له: آجرتكها لتزرعها أو تغرسها، فإنه لا يصح؛ لأنه
|
| 63 |
+
لم يعين أحدهما، فوجدت جهالة. \n\nوإذا قال له: آجرتك لتزرعها وتغرسها، صح العقد
|
| 64 |
+
عند الحنابلة، وله أن يزرعها كلها ما شاء، أو أن يغرسها كلها ما شاء. وفي قول عند
|
| 65 |
+
الشافعية: يصح، وله أن يزرع النصف، ويغرس النصف؛ لأن الجمع يقتضي التسوية. وفي القول
|
| 66 |
+
الثاني: لا يصح؛ لأنه لم يبين المقدار من كل واحد منها. \n\nأما إن أطلق، وقال: آجرتك
|
| 67 |
+
لتنتفع بها ما شئت، فله الزرع والغرس والبناء عند الحنابلة، للإطلاق. وللشافعية في
|
| 68 |
+
الأرض التي لا ماء لها، ولم يذكر أنه يكتريها للزراعة، وجهان: \n\nأحدهما: لا يصح،
|
| 69 |
+
لأن الأرض عادة تكترى'
|
| 70 |
+
- source_sentence: من هو رجل بريرة الذي كانت زوجته له قد اعتقت؟
|
| 71 |
+
sentences:
|
| 72 |
+
- أهل العلم على أنه إذا عتقت الأمة - وزوجها عبد - فلها الخيار في فسخ النكاح لخبر
|
| 73 |
+
بريرة . قالت عائشة «كاتبت بريرة فخيرها رسول الله في زوجها، وكان عبدا فاختارت
|
| 74 |
+
نفسها»(). ولأن \n\nعليها ضررا في كونها حرة تحت عبد. \n\nواختلفوا فيما إذا عتقت
|
| 75 |
+
وزوجها حر، فالجمهور على أنه لا خيار لها، لأنها كافأت زوجها في الكمال، فلم يثبت
|
| 76 |
+
لها الخيار. \n\nوذهب طاوس وابن سيرين ومجاهد والنخعي والثوري والحنفية إلى أن لها
|
| 77 |
+
الخيار. واستدلوا بما روي في حديث بريرة أن زوجها كان حرا، كما رواه النسائي في سننه().
|
| 78 |
+
\n\nوأجمع الفقهاء على بقاء نكاح الكتابية التي أسلم زوجها، سواء قبل الدخول أو بعده،
|
| 79 |
+
لأن للمسلم أن يبتدئ
|
| 80 |
+
- 'قال: إن أقل التعزير ليس مقدرا فيرجع فيه إلى اجتهاد الإمام أو الحاكم فيما يراه
|
| 81 |
+
وما تقتضيه حال الشخص(). \n\nج - التعزير بالحبس : \n\n16 - الحبس مشروع بالكتاب
|
| 82 |
+
والسنة والإجماع \n\nأما الكتاب فقوله تعالى: واللاتي يأتين الفاحشة من نسائكم فاستشهدوا
|
| 83 |
+
عليهن أربعة منكم فإن شهدوا فأمسكوهن في البيوت حتى يتوفاهن الموت أو يجعل الله لهن
|
| 84 |
+
سبيلا() وقوله: إنما جزاء الذين يحاربون الله ورسوله ويسعون في الأرض فسادا أن يقتلوا
|
| 85 |
+
أو يصلبوا أو تقطع أيديهم وأرجلهم من خلاف أو ينفوا من الأرض(). فقد قال الزيلعي:
|
| 86 |
+
إن المقصود بالنفي هنا الحبس. \n\nوأما السنة فقد ثبت: «أن الرسول حبس بالمدينة
|
| 87 |
+
أناسا في تهمة دم،'
|
| 88 |
+
- 'واختلاف الفقهاء في ذلك يرجع إليه في مصطلح: (قضاء). \n\nحرمان الوارث من الميراث
|
| 89 |
+
بالتهمة: \n\n12 - لا خلاف بين الفقهاء في حرمان القاتل عمدا عدوانا من الميراث.
|
| 90 |
+
واختلفوا في توريث القاتل خطأ أو القاتل بحق. فذهب البعض إلى حرمانهما، وذلك لتهمة
|
| 91 |
+
استعجال الإرث قبل أوانه. \n\nوالتفصيل: في مصطلح: (إرث). \n\nعدم وقوع طلاق المطلق
|
| 92 |
+
في مرض الموت: \n\n13 - لا يقع طلاق المريض مرض الموت عند فريق من الفقهاء لتهمة
|
| 93 |
+
قصد إضرار الزوجة بحرمانها الميراث. \n\nوانظر للتفصيل مصطلح: (طلاق). \n\nالتعزير
|
| 94 |
+
بالتهمة: \n\n14 - لا خلاف بين الفقهاء في أن الحدود لا تقام بالتهمة. \n\nأما التعزير
|
| 95 |
+
بالتهمة فقد ذهب الحنفية'
|
| 96 |
+
- source_sentence: هل يمكن اعتبار الإبراء كإسقاط، أم أنه يجب النظر إليه كتمليك، وفقًا
|
| 97 |
+
للآراء المختلفة بين المدارس القانونية؟
|
| 98 |
+
sentences:
|
| 99 |
+
- 'الملك. \n\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء
|
| 100 |
+
تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل،
|
| 101 |
+
لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما
|
| 102 |
+
يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \n\nومما غلب
|
| 103 |
+
فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \n\nعلى
|
| 104 |
+
أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية
|
| 105 |
+
أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط
|
| 106 |
+
يصح، وكذا بالنظر'
|
| 107 |
+
- 'الراء له عدد من المعاني منها: إلزام الشيء والتزامه. وأما بفتح الراء \n\nفمعناه
|
| 108 |
+
العلامة، ويجمع على أشراط كسبب وأسباب. \n\nومعناه في الاصطلاح كما قال الحموي: التزام
|
| 109 |
+
أمر لم يوجد في أمر وجد بصيغة مخصوصة(). \n\nوهو يشبه التقييد لما فيه من الالتزام.
|
| 110 |
+
\n\nالحكم الإجمالي: \n\n7 - ذكر الأصوليون والفقهاء الأحكام الخاصة بمصطلح تقييد
|
| 111 |
+
في عدد من المواطن، ومن أشهر مسائله عند الأصوليين مسألة حمل المطلق على المقيد،
|
| 112 |
+
ومما قالوه في ذلك أن المطلق والمقيد إما أن يختلفا في السبب والحكم، وإما أن يتفقا
|
| 113 |
+
فيهما، وإما أن يختلفا في السبب دون الحكم، فإن كان الأول فلا حمل اتفاقا، كما قال
|
| 114 |
+
الآمر لمن تلزمه طاعته:'
|
| 115 |
+
- 'يضر بالأرض. \n\nأما إذا قال له: آجرتكها لتزرعها أو تغرسها، فإنه لا يصح؛ لأنه
|
| 116 |
+
لم يعين أحدهما، فوجدت جهالة. \n\nوإذا قال له: آجرتك لتزرعها وتغرسها، صح العقد
|
| 117 |
+
عند الحنابلة، وله أن يزرعها كلها ما شاء، أو أن يغرسها كلها ما شاء. وفي قول عند
|
| 118 |
+
الشافعية: يصح، وله أن يزرع النصف، ويغرس النصف؛ لأن الجمع يقتضي التسوية. وفي القول
|
| 119 |
+
الثاني: لا يصح؛ لأنه لم يبين المقدار من كل واحد منها. \n\nأما إن أطلق، وقال: آجرتك
|
| 120 |
+
لتنتفع بها ما شئت، فله الزرع والغرس والبناء عند الحنابلة، للإطلاق. وللشافعية في
|
| 121 |
+
الأرض التي لا ماء لها، ولم يذكر أنه يكتريها للزراعة، وجهان: \n\nأحدهما: لا يصح،
|
| 122 |
+
لأن الأرض عادة تكترى'
|
| 123 |
+
- source_sentence: ما هي الأماكن الأخرى المهمة داخل حدود الحرم المكي الشريف؟
|
| 124 |
+
sentences:
|
| 125 |
+
- 'الملك. \n\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء
|
| 126 |
+
تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل،
|
| 127 |
+
لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما
|
| 128 |
+
يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \n\nومما غلب
|
| 129 |
+
فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \n\nعلى
|
| 130 |
+
أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية
|
| 131 |
+
أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط
|
| 132 |
+
يصح، وكذا بالنظر'
|
| 133 |
+
- 'نظيفا»() وذكر القاضي في حديث ابن عباس في «غسل النبي قال فجففوه بثوب»(). \n\nوللتفصيل
|
| 134 |
+
ينظر (ر: تكفين). \n\nالتنعيم \n\nالتعريف: \n\n1 - التنعيم موضع في الحل في شمال
|
| 135 |
+
مكة الغربي، وهو حد الحرم من جهة المدينة المنورة. \n\nقال الفاسي: المسافة بين باب
|
| 136 |
+
العمرة وبين أعلام الحرم في هذه الجهة التي في الأرض لا التي على الجبل اثنا عشر
|
| 137 |
+
ألف ذراع وأربعمائة ذراع وعشرون ذراعا بذراع اليد(). \n\nوإنما سمي التنعيم بهذا
|
| 138 |
+
الاسم لأن الجبل الذي عن يمين الداخل يقال له ناعم والذي عن اليسار يقال له منعم
|
| 139 |
+
أو نعيم والوادي نعمان(). \n\nالأحكام المتعلقة بالتنعيم: \n\n2 - أجمع الفقهاء على
|
| 140 |
+
أن المعتمر المكي لا بد له من'
|
| 141 |
+
- 'كفارا، ولم ينكر النبي ذلك عليه(). \n\nأخذ الأجرة على التعاويذ والرقى: \n\n28
|
| 142 |
+
- ذهب جمهور الفقهاء إلى جواز أخذ الأجرة على التعاويذ والرقى، وإليه ذهب عطاء، وأبو
|
| 143 |
+
قلابة، وأبو ثور، وإسحاق، واستدلوا بحديث أبي سعيد الخدري الذي سبق ذكره (ف - 14)
|
| 144 |
+
واستدل الطحاوي للجواز وقال: يجوز أخذ الأجر على الرقى، لأنه ليس على الناس أن يرقي
|
| 145 |
+
بعضهم بعضا؛ لأن في ذلك تبليغا عن الله تعالى. وكره الزهري أخذ الأجرة على القرآن
|
| 146 |
+
مطلقا، سواء أكان للتعليم أو للرقية(). \n\n\n\nتعويض \n\nالتعريف: \n\n1 - أصل التعويض
|
| 147 |
+
لغة: العوض، وهو البدل تقول: عوضته تعويضا إذا أعطيته بدل ما ذهب منه. وتعوض منه
|
| 148 |
+
واعتاض: أخذ العوض()'
|
| 149 |
+
pipeline_tag: sentence-similarity
|
| 150 |
+
library_name: sentence-transformers
|
| 151 |
+
metrics:
|
| 152 |
+
- cosine_accuracy@1
|
| 153 |
+
- cosine_accuracy@3
|
| 154 |
+
- cosine_accuracy@5
|
| 155 |
+
- cosine_accuracy@10
|
| 156 |
+
- cosine_precision@1
|
| 157 |
+
- cosine_precision@3
|
| 158 |
+
- cosine_precision@5
|
| 159 |
+
- cosine_precision@10
|
| 160 |
+
- cosine_recall@1
|
| 161 |
+
- cosine_recall@3
|
| 162 |
+
- cosine_recall@5
|
| 163 |
+
- cosine_recall@10
|
| 164 |
+
- cosine_ndcg@10
|
| 165 |
+
- cosine_mrr@10
|
| 166 |
+
- cosine_map@100
|
| 167 |
+
model-index:
|
| 168 |
+
- name: Qwen/Qwen3-Embedding-0.6B
|
| 169 |
+
results:
|
| 170 |
+
- task:
|
| 171 |
+
type: information-retrieval
|
| 172 |
+
name: Information Retrieval
|
| 173 |
+
dataset:
|
| 174 |
+
name: dim 1024
|
| 175 |
+
type: dim_1024
|
| 176 |
+
metrics:
|
| 177 |
+
- type: cosine_accuracy@1
|
| 178 |
+
value: 0.3421185054723865
|
| 179 |
+
name: Cosine Accuracy@1
|
| 180 |
+
- type: cosine_accuracy@3
|
| 181 |
+
value: 0.4978613662095861
|
| 182 |
+
name: Cosine Accuracy@3
|
| 183 |
+
- type: cosine_accuracy@5
|
| 184 |
+
value: 0.5620203799220028
|
| 185 |
+
name: Cosine Accuracy@5
|
| 186 |
+
- type: cosine_accuracy@10
|
| 187 |
+
value: 0.6451754937728016
|
| 188 |
+
name: Cosine Accuracy@10
|
| 189 |
+
- type: cosine_precision@1
|
| 190 |
+
value: 0.3421185054723865
|
| 191 |
+
name: Cosine Precision@1
|
| 192 |
+
- type: cosine_precision@3
|
| 193 |
+
value: 0.1659537887365287
|
| 194 |
+
name: Cosine Precision@3
|
| 195 |
+
- type: cosine_precision@5
|
| 196 |
+
value: 0.11240407598440055
|
| 197 |
+
name: Cosine Precision@5
|
| 198 |
+
- type: cosine_precision@10
|
| 199 |
+
value: 0.06451754937728015
|
| 200 |
+
name: Cosine Precision@10
|
| 201 |
+
- type: cosine_recall@1
|
| 202 |
+
value: 0.3421185054723865
|
| 203 |
+
name: Cosine Recall@1
|
| 204 |
+
- type: cosine_recall@3
|
| 205 |
+
value: 0.4978613662095861
|
| 206 |
+
name: Cosine Recall@3
|
| 207 |
+
- type: cosine_recall@5
|
| 208 |
+
value: 0.5620203799220028
|
| 209 |
+
name: Cosine Recall@5
|
| 210 |
+
- type: cosine_recall@10
|
| 211 |
+
value: 0.6451754937728016
|
| 212 |
+
name: Cosine Recall@10
|
| 213 |
+
- type: cosine_ndcg@10
|
| 214 |
+
value: 0.486654937958254
|
| 215 |
+
name: Cosine Ndcg@10
|
| 216 |
+
- type: cosine_mrr@10
|
| 217 |
+
value: 0.4367436155491217
|
| 218 |
+
name: Cosine Mrr@10
|
| 219 |
+
- type: cosine_map@100
|
| 220 |
+
value: 0.44450267121536374
|
| 221 |
+
name: Cosine Map@100
|
| 222 |
+
- task:
|
| 223 |
+
type: information-retrieval
|
| 224 |
+
name: Information Retrieval
|
| 225 |
+
dataset:
|
| 226 |
+
name: dim 256
|
| 227 |
+
type: dim_256
|
| 228 |
+
metrics:
|
| 229 |
+
- type: cosine_accuracy@1
|
| 230 |
+
value: 0.2872059378538181
|
| 231 |
+
name: Cosine Accuracy@1
|
| 232 |
+
- type: cosine_accuracy@3
|
| 233 |
+
value: 0.43389105547867657
|
| 234 |
+
name: Cosine Accuracy@3
|
| 235 |
+
- type: cosine_accuracy@5
|
| 236 |
+
value: 0.5002516039753429
|
| 237 |
+
name: Cosine Accuracy@5
|
| 238 |
+
- type: cosine_accuracy@10
|
| 239 |
+
value: 0.5771166184425713
|
| 240 |
+
name: Cosine Accuracy@10
|
| 241 |
+
- type: cosine_precision@1
|
| 242 |
+
value: 0.2872059378538181
|
| 243 |
+
name: Cosine Precision@1
|
| 244 |
+
- type: cosine_precision@3
|
| 245 |
+
value: 0.1446303518262255
|
| 246 |
+
name: Cosine Precision@3
|
| 247 |
+
- type: cosine_precision@5
|
| 248 |
+
value: 0.10005032079506855
|
| 249 |
+
name: Cosine Precision@5
|
| 250 |
+
- type: cosine_precision@10
|
| 251 |
+
value: 0.057711661844257134
|
| 252 |
+
name: Cosine Precision@10
|
| 253 |
+
- type: cosine_recall@1
|
| 254 |
+
value: 0.2872059378538181
|
| 255 |
+
name: Cosine Recall@1
|
| 256 |
+
- type: cosine_recall@3
|
| 257 |
+
value: 0.43389105547867657
|
| 258 |
+
name: Cosine Recall@3
|
| 259 |
+
- type: cosine_recall@5
|
| 260 |
+
value: 0.5002516039753429
|
| 261 |
+
name: Cosine Recall@5
|
| 262 |
+
- type: cosine_recall@10
|
| 263 |
+
value: 0.5771166184425713
|
| 264 |
+
name: Cosine Recall@10
|
| 265 |
+
- type: cosine_ndcg@10
|
| 266 |
+
value: 0.42525529772687953
|
| 267 |
+
name: Cosine Ndcg@10
|
| 268 |
+
- type: cosine_mrr@10
|
| 269 |
+
value: 0.3774421310856682
|
| 270 |
+
name: Cosine Mrr@10
|
| 271 |
+
- type: cosine_map@100
|
| 272 |
+
value: 0.38617365110911006
|
| 273 |
+
name: Cosine Map@100
|
| 274 |
+
---
|
| 275 |
+
|
| 276 |
+
# Qwen/Qwen3-Embedding-0.6B
|
| 277 |
+
|
| 278 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
| 279 |
+
|
| 280 |
+
## Model Details
|
| 281 |
+
|
| 282 |
+
### Model Description
|
| 283 |
+
- **Model Type:** Sentence Transformer
|
| 284 |
+
- **Base model:** [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B) <!-- at revision c54f2e6e80b2d7b7de06f51cec4959f6b3e03418 -->
|
| 285 |
+
- **Maximum Sequence Length:** 192 tokens
|
| 286 |
+
- **Output Dimensionality:** 1024 dimensions
|
| 287 |
+
- **Similarity Function:** Cosine Similarity
|
| 288 |
+
<!-- - **Training Dataset:** Unknown -->
|
| 289 |
+
- **Language:** multilingual
|
| 290 |
+
- **License:** apache-2.0
|
| 291 |
+
|
| 292 |
+
### Model Sources
|
| 293 |
+
|
| 294 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
| 295 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
|
| 296 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
| 297 |
+
|
| 298 |
+
### Full Model Architecture
|
| 299 |
+
|
| 300 |
+
```
|
| 301 |
+
SentenceTransformer(
|
| 302 |
+
(0): Transformer({'max_seq_length': 192, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
|
| 303 |
+
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
|
| 304 |
+
(2): Normalize()
|
| 305 |
+
)
|
| 306 |
+
```
|
| 307 |
+
|
| 308 |
+
## Usage
|
| 309 |
+
|
| 310 |
+
### Direct Usage (Sentence Transformers)
|
| 311 |
+
|
| 312 |
+
First install the Sentence Transformers library:
|
| 313 |
+
|
| 314 |
+
```bash
|
| 315 |
+
pip install -U sentence-transformers
|
| 316 |
+
```
|
| 317 |
+
|
| 318 |
+
Then you can load this model and run inference.
|
| 319 |
+
```python
|
| 320 |
+
from sentence_transformers import SentenceTransformer
|
| 321 |
+
|
| 322 |
+
# Download from the 🤗 Hub
|
| 323 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
| 324 |
+
# Run inference
|
| 325 |
+
queries = [
|
| 326 |
+
"\u0645\u0627 \u0647\u064a \u0627\u0644\u0623\u0645\u0627\u0643\u0646 \u0627\u0644\u0623\u062e\u0631\u0649 \u0627\u0644\u0645\u0647\u0645\u0629 \u062f\u0627\u062e\u0644 \u062d\u062f\u0648\u062f \u0627\u0644\u062d\u0631\u0645 \u0627\u0644\u0645\u0643\u064a \u0627\u0644\u0634\u0631\u064a\u0641\u061f",
|
| 327 |
+
]
|
| 328 |
+
documents = [
|
| 329 |
+
'نظيفا»() وذكر القاضي في حديث ابن عباس في «غسل النبي قال فجففوه بثوب»(). \\n\\nوللتفصيل ينظر (ر: تكفين). \\n\\nالتنعيم \\n\\nالتعريف: \\n\\n1 - التنعيم موضع في الحل في شمال مكة الغربي، وهو حد الحرم من جهة المدينة المنورة. \\n\\nقال الفاسي: المسافة بين باب العمرة وبين أعلام الحرم في هذه الجهة التي في الأرض لا التي على الجبل اثنا عشر ألف ذراع وأربعمائة ذراع وعشرون ذراعا بذراع اليد(). \\n\\nوإنما سمي التنعيم بهذا الاسم لأن الجبل الذي عن يمين الداخل يقال له ناعم والذي عن اليسار يقال له منعم أو نعيم والوادي نعمان(). \\n\\nالأحكام المتعلقة بالتنعيم: \\n\\n2 - أجمع الفقهاء على أن المعتمر المكي لا بد له من',
|
| 330 |
+
'الملك. \\n\\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل، لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \\n\\nومما غلب فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \\n\\nعلى أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط يصح، وكذا بالنظر',
|
| 331 |
+
'كفارا، ولم ينكر النبي ذلك عليه(). \\n\\nأخذ الأجرة على التعاويذ والرقى: \\n\\n28 - ذهب جمهور الفقهاء إلى جواز أخذ الأجرة على التعاويذ والرقى، وإليه ذهب عطاء، وأبو قلابة، وأبو ثور، وإسحاق، واستدلوا بحديث أبي سعيد الخدري الذي سبق ذكره (ف - 14) واستدل الطحاوي للجواز وقال: يجوز أخذ الأجر على الرقى، لأنه ليس على الناس أن يرقي بعضهم بعضا؛ لأن في ذلك تبليغا عن الله تعالى. وكره الزهري أخذ الأجرة على القرآن مطلقا، سواء أكان للتعليم أو للرقية(). \\n\\n\\n\\nتعويض \\n\\nالتعريف: \\n\\n1 - أصل التعويض لغة: العوض، وهو البدل تقول: عوضته تعويضا إذا أعطيته بدل ما ذهب منه. وتعوض منه واعتاض: أخذ العوض()',
|
| 332 |
+
]
|
| 333 |
+
query_embeddings = model.encode_query(queries)
|
| 334 |
+
document_embeddings = model.encode_document(documents)
|
| 335 |
+
print(query_embeddings.shape, document_embeddings.shape)
|
| 336 |
+
# [1, 1024] [3, 1024]
|
| 337 |
+
|
| 338 |
+
# Get the similarity scores for the embeddings
|
| 339 |
+
similarities = model.similarity(query_embeddings, document_embeddings)
|
| 340 |
+
print(similarities)
|
| 341 |
+
# tensor([[ 0.3507, -0.0306, -0.0986]])
|
| 342 |
+
```
|
| 343 |
+
|
| 344 |
+
<!--
|
| 345 |
+
### Direct Usage (Transformers)
|
| 346 |
+
|
| 347 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
| 348 |
+
|
| 349 |
+
</details>
|
| 350 |
+
-->
|
| 351 |
+
|
| 352 |
+
<!--
|
| 353 |
+
### Downstream Usage (Sentence Transformers)
|
| 354 |
+
|
| 355 |
+
You can finetune this model on your own dataset.
|
| 356 |
+
|
| 357 |
+
<details><summary>Click to expand</summary>
|
| 358 |
+
|
| 359 |
+
</details>
|
| 360 |
+
-->
|
| 361 |
+
|
| 362 |
+
<!--
|
| 363 |
+
### Out-of-Scope Use
|
| 364 |
+
|
| 365 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
| 366 |
+
-->
|
| 367 |
+
|
| 368 |
+
## Evaluation
|
| 369 |
+
|
| 370 |
+
### Metrics
|
| 371 |
+
|
| 372 |
+
#### Information Retrieval
|
| 373 |
+
|
| 374 |
+
* Dataset: `dim_1024`
|
| 375 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 376 |
+
```json
|
| 377 |
+
{
|
| 378 |
+
"truncate_dim": 1024
|
| 379 |
+
}
|
| 380 |
+
```
|
| 381 |
+
|
| 382 |
+
| Metric | Value |
|
| 383 |
+
|:--------------------|:-----------|
|
| 384 |
+
| cosine_accuracy@1 | 0.3421 |
|
| 385 |
+
| cosine_accuracy@3 | 0.4979 |
|
| 386 |
+
| cosine_accuracy@5 | 0.562 |
|
| 387 |
+
| cosine_accuracy@10 | 0.6452 |
|
| 388 |
+
| cosine_precision@1 | 0.3421 |
|
| 389 |
+
| cosine_precision@3 | 0.166 |
|
| 390 |
+
| cosine_precision@5 | 0.1124 |
|
| 391 |
+
| cosine_precision@10 | 0.0645 |
|
| 392 |
+
| cosine_recall@1 | 0.3421 |
|
| 393 |
+
| cosine_recall@3 | 0.4979 |
|
| 394 |
+
| cosine_recall@5 | 0.562 |
|
| 395 |
+
| cosine_recall@10 | 0.6452 |
|
| 396 |
+
| **cosine_ndcg@10** | **0.4867** |
|
| 397 |
+
| cosine_mrr@10 | 0.4367 |
|
| 398 |
+
| cosine_map@100 | 0.4445 |
|
| 399 |
+
|
| 400 |
+
#### Information Retrieval
|
| 401 |
+
|
| 402 |
+
* Dataset: `dim_256`
|
| 403 |
+
* Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
|
| 404 |
+
```json
|
| 405 |
+
{
|
| 406 |
+
"truncate_dim": 256
|
| 407 |
+
}
|
| 408 |
+
```
|
| 409 |
+
|
| 410 |
+
| Metric | Value |
|
| 411 |
+
|:--------------------|:-----------|
|
| 412 |
+
| cosine_accuracy@1 | 0.2872 |
|
| 413 |
+
| cosine_accuracy@3 | 0.4339 |
|
| 414 |
+
| cosine_accuracy@5 | 0.5003 |
|
| 415 |
+
| cosine_accuracy@10 | 0.5771 |
|
| 416 |
+
| cosine_precision@1 | 0.2872 |
|
| 417 |
+
| cosine_precision@3 | 0.1446 |
|
| 418 |
+
| cosine_precision@5 | 0.1001 |
|
| 419 |
+
| cosine_precision@10 | 0.0577 |
|
| 420 |
+
| cosine_recall@1 | 0.2872 |
|
| 421 |
+
| cosine_recall@3 | 0.4339 |
|
| 422 |
+
| cosine_recall@5 | 0.5003 |
|
| 423 |
+
| cosine_recall@10 | 0.5771 |
|
| 424 |
+
| **cosine_ndcg@10** | **0.4253** |
|
| 425 |
+
| cosine_mrr@10 | 0.3774 |
|
| 426 |
+
| cosine_map@100 | 0.3862 |
|
| 427 |
+
|
| 428 |
+
<!--
|
| 429 |
+
## Bias, Risks and Limitations
|
| 430 |
+
|
| 431 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
| 432 |
+
-->
|
| 433 |
+
|
| 434 |
+
<!--
|
| 435 |
+
### Recommendations
|
| 436 |
+
|
| 437 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
| 438 |
+
-->
|
| 439 |
+
|
| 440 |
+
## Training Details
|
| 441 |
+
|
| 442 |
+
### Training Dataset
|
| 443 |
+
|
| 444 |
+
#### Unnamed Dataset
|
| 445 |
+
|
| 446 |
+
* Size: 73,994 training samples
|
| 447 |
+
* Columns: <code>anchor</code> and <code>positive</code>
|
| 448 |
+
* Approximate statistics based on the first 1000 samples:
|
| 449 |
+
| | anchor | positive |
|
| 450 |
+
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
| 451 |
+
| type | string | string |
|
| 452 |
+
| details | <ul><li>min: 3 tokens</li><li>mean: 24.27 tokens</li><li>max: 52 tokens</li></ul> | <ul><li>min: 192 tokens</li><li>mean: 192.0 tokens</li><li>max: 192 tokens</li></ul> |
|
| 453 |
+
* Samples:
|
| 454 |
+
| anchor | positive |
|
| 455 |
+
|:----------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
| 456 |
+
| <code>What specific practices did this group of followers engage in according to the given text?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
|
| 457 |
+
| <code>How does this group's approach to understanding religious texts impact legal rulings, particularly in matters related to judicial decisions?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
|
| 458 |
+
| <code>Can you explain the two contrasting effects mentioned for this group's methodology?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
|
| 459 |
+
* Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
|
| 460 |
+
```json
|
| 461 |
+
{
|
| 462 |
+
"loss": "MultipleNegativesRankingLoss",
|
| 463 |
+
"matryoshka_dims": [
|
| 464 |
+
1024,
|
| 465 |
+
256
|
| 466 |
+
],
|
| 467 |
+
"matryoshka_weights": [
|
| 468 |
+
1,
|
| 469 |
+
1
|
| 470 |
+
],
|
| 471 |
+
"n_dims_per_step": -1
|
| 472 |
+
}
|
| 473 |
+
```
|
| 474 |
+
|
| 475 |
+
### Training Hyperparameters
|
| 476 |
+
#### Non-Default Hyperparameters
|
| 477 |
+
|
| 478 |
+
- `eval_strategy`: steps
|
| 479 |
+
- `per_device_train_batch_size`: 128
|
| 480 |
+
- `per_device_eval_batch_size`: 64
|
| 481 |
+
- `gradient_accumulation_steps`: 2
|
| 482 |
+
- `learning_rate`: 2e-05
|
| 483 |
+
- `num_train_epochs`: 2
|
| 484 |
+
- `lr_scheduler_type`: cosine
|
| 485 |
+
- `warmup_ratio`: 0.1
|
| 486 |
+
- `bf16`: True
|
| 487 |
+
- `tf32`: True
|
| 488 |
+
- `load_best_model_at_end`: True
|
| 489 |
+
- `gradient_checkpointing`: True
|
| 490 |
+
- `batch_sampler`: no_duplicates
|
| 491 |
+
|
| 492 |
+
#### All Hyperparameters
|
| 493 |
+
<details><summary>Click to expand</summary>
|
| 494 |
+
|
| 495 |
+
- `overwrite_output_dir`: False
|
| 496 |
+
- `do_predict`: False
|
| 497 |
+
- `eval_strategy`: steps
|
| 498 |
+
- `prediction_loss_only`: True
|
| 499 |
+
- `per_device_train_batch_size`: 128
|
| 500 |
+
- `per_device_eval_batch_size`: 64
|
| 501 |
+
- `per_gpu_train_batch_size`: None
|
| 502 |
+
- `per_gpu_eval_batch_size`: None
|
| 503 |
+
- `gradient_accumulation_steps`: 2
|
| 504 |
+
- `eval_accumulation_steps`: None
|
| 505 |
+
- `torch_empty_cache_steps`: None
|
| 506 |
+
- `learning_rate`: 2e-05
|
| 507 |
+
- `weight_decay`: 0.0
|
| 508 |
+
- `adam_beta1`: 0.9
|
| 509 |
+
- `adam_beta2`: 0.999
|
| 510 |
+
- `adam_epsilon`: 1e-08
|
| 511 |
+
- `max_grad_norm`: 1.0
|
| 512 |
+
- `num_train_epochs`: 2
|
| 513 |
+
- `max_steps`: -1
|
| 514 |
+
- `lr_scheduler_type`: cosine
|
| 515 |
+
- `lr_scheduler_kwargs`: {}
|
| 516 |
+
- `warmup_ratio`: 0.1
|
| 517 |
+
- `warmup_steps`: 0
|
| 518 |
+
- `log_level`: passive
|
| 519 |
+
- `log_level_replica`: warning
|
| 520 |
+
- `log_on_each_node`: True
|
| 521 |
+
- `logging_nan_inf_filter`: True
|
| 522 |
+
- `save_safetensors`: True
|
| 523 |
+
- `save_on_each_node`: False
|
| 524 |
+
- `save_only_model`: False
|
| 525 |
+
- `restore_callback_states_from_checkpoint`: False
|
| 526 |
+
- `no_cuda`: False
|
| 527 |
+
- `use_cpu`: False
|
| 528 |
+
- `use_mps_device`: False
|
| 529 |
+
- `seed`: 42
|
| 530 |
+
- `data_seed`: None
|
| 531 |
+
- `jit_mode_eval`: False
|
| 532 |
+
- `bf16`: True
|
| 533 |
+
- `fp16`: False
|
| 534 |
+
- `fp16_opt_level`: O1
|
| 535 |
+
- `half_precision_backend`: auto
|
| 536 |
+
- `bf16_full_eval`: False
|
| 537 |
+
- `fp16_full_eval`: False
|
| 538 |
+
- `tf32`: True
|
| 539 |
+
- `local_rank`: 0
|
| 540 |
+
- `ddp_backend`: None
|
| 541 |
+
- `tpu_num_cores`: None
|
| 542 |
+
- `tpu_metrics_debug`: False
|
| 543 |
+
- `debug`: []
|
| 544 |
+
- `dataloader_drop_last`: False
|
| 545 |
+
- `dataloader_num_workers`: 0
|
| 546 |
+
- `dataloader_prefetch_factor`: None
|
| 547 |
+
- `past_index`: -1
|
| 548 |
+
- `disable_tqdm`: False
|
| 549 |
+
- `remove_unused_columns`: True
|
| 550 |
+
- `label_names`: None
|
| 551 |
+
- `load_best_model_at_end`: True
|
| 552 |
+
- `ignore_data_skip`: False
|
| 553 |
+
- `fsdp`: []
|
| 554 |
+
- `fsdp_min_num_params`: 0
|
| 555 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
| 556 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
| 557 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
| 558 |
+
- `parallelism_config`: None
|
| 559 |
+
- `deepspeed`: None
|
| 560 |
+
- `label_smoothing_factor`: 0.0
|
| 561 |
+
- `optim`: adamw_torch_fused
|
| 562 |
+
- `optim_args`: None
|
| 563 |
+
- `adafactor`: False
|
| 564 |
+
- `group_by_length`: False
|
| 565 |
+
- `length_column_name`: length
|
| 566 |
+
- `project`: huggingface
|
| 567 |
+
- `trackio_space_id`: trackio
|
| 568 |
+
- `ddp_find_unused_parameters`: None
|
| 569 |
+
- `ddp_bucket_cap_mb`: None
|
| 570 |
+
- `ddp_broadcast_buffers`: False
|
| 571 |
+
- `dataloader_pin_memory`: True
|
| 572 |
+
- `dataloader_persistent_workers`: False
|
| 573 |
+
- `skip_memory_metrics`: True
|
| 574 |
+
- `use_legacy_prediction_loop`: False
|
| 575 |
+
- `push_to_hub`: False
|
| 576 |
+
- `resume_from_checkpoint`: None
|
| 577 |
+
- `hub_model_id`: None
|
| 578 |
+
- `hub_strategy`: every_save
|
| 579 |
+
- `hub_private_repo`: None
|
| 580 |
+
- `hub_always_push`: False
|
| 581 |
+
- `hub_revision`: None
|
| 582 |
+
- `gradient_checkpointing`: True
|
| 583 |
+
- `gradient_checkpointing_kwargs`: None
|
| 584 |
+
- `include_inputs_for_metrics`: False
|
| 585 |
+
- `include_for_metrics`: []
|
| 586 |
+
- `eval_do_concat_batches`: True
|
| 587 |
+
- `fp16_backend`: auto
|
| 588 |
+
- `push_to_hub_model_id`: None
|
| 589 |
+
- `push_to_hub_organization`: None
|
| 590 |
+
- `mp_parameters`:
|
| 591 |
+
- `auto_find_batch_size`: False
|
| 592 |
+
- `full_determinism`: False
|
| 593 |
+
- `torchdynamo`: None
|
| 594 |
+
- `ray_scope`: last
|
| 595 |
+
- `ddp_timeout`: 1800
|
| 596 |
+
- `torch_compile`: False
|
| 597 |
+
- `torch_compile_backend`: None
|
| 598 |
+
- `torch_compile_mode`: None
|
| 599 |
+
- `include_tokens_per_second`: False
|
| 600 |
+
- `include_num_input_tokens_seen`: no
|
| 601 |
+
- `neftune_noise_alpha`: None
|
| 602 |
+
- `optim_target_modules`: None
|
| 603 |
+
- `batch_eval_metrics`: False
|
| 604 |
+
- `eval_on_start`: False
|
| 605 |
+
- `use_liger_kernel`: False
|
| 606 |
+
- `liger_kernel_config`: None
|
| 607 |
+
- `eval_use_gather_object`: False
|
| 608 |
+
- `average_tokens_across_devices`: True
|
| 609 |
+
- `prompts`: None
|
| 610 |
+
- `batch_sampler`: no_duplicates
|
| 611 |
+
- `multi_dataset_batch_sampler`: proportional
|
| 612 |
+
- `router_mapping`: {}
|
| 613 |
+
- `learning_rate_mapping`: {}
|
| 614 |
+
|
| 615 |
+
</details>
|
| 616 |
+
|
| 617 |
+
### Training Logs
|
| 618 |
+
| Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_256_cosine_ndcg@10 |
|
| 619 |
+
|:----------:|:-------:|:-------------:|:-----------------------:|:----------------------:|
|
| 620 |
+
| -1 | -1 | - | 0.3765 | 0.3060 |
|
| 621 |
+
| 0.0345 | 10 | 3.2088 | - | - |
|
| 622 |
+
| 0.0691 | 20 | 2.879 | - | - |
|
| 623 |
+
| 0.1036 | 30 | 2.4085 | - | - |
|
| 624 |
+
| 0.1382 | 40 | 2.0405 | - | - |
|
| 625 |
+
| 0.1727 | 50 | 1.8785 | 0.4311 | 0.3651 |
|
| 626 |
+
| 0.2073 | 60 | 1.7366 | - | - |
|
| 627 |
+
| 0.2418 | 70 | 1.6183 | - | - |
|
| 628 |
+
| 0.2763 | 80 | 1.5751 | - | - |
|
| 629 |
+
| 0.3109 | 90 | 1.3818 | - | - |
|
| 630 |
+
| 0.3454 | 100 | 1.4648 | 0.4636 | 0.3970 |
|
| 631 |
+
| 0.3800 | 110 | 1.4749 | - | - |
|
| 632 |
+
| 0.4145 | 120 | 1.4677 | - | - |
|
| 633 |
+
| 0.4491 | 130 | 1.3521 | - | - |
|
| 634 |
+
| 0.4836 | 140 | 1.302 | - | - |
|
| 635 |
+
| 0.5181 | 150 | 1.3315 | 0.4675 | 0.4084 |
|
| 636 |
+
| 0.5527 | 160 | 1.3341 | - | - |
|
| 637 |
+
| 0.5872 | 170 | 1.3045 | - | - |
|
| 638 |
+
| 0.6218 | 180 | 1.3123 | - | - |
|
| 639 |
+
| 0.6563 | 190 | 1.2239 | - | - |
|
| 640 |
+
| 0.6908 | 200 | 1.2158 | 0.4755 | 0.4160 |
|
| 641 |
+
| 0.7254 | 210 | 1.286 | - | - |
|
| 642 |
+
| 0.7599 | 220 | 1.207 | - | - |
|
| 643 |
+
| 0.7945 | 230 | 1.1968 | - | - |
|
| 644 |
+
| 0.8290 | 240 | 1.2546 | - | - |
|
| 645 |
+
| 0.8636 | 250 | 1.1038 | 0.4827 | 0.4226 |
|
| 646 |
+
| 0.8981 | 260 | 1.1658 | - | - |
|
| 647 |
+
| 0.9326 | 270 | 1.1338 | - | - |
|
| 648 |
+
| 0.9672 | 280 | 1.0918 | - | - |
|
| 649 |
+
| 1.0 | 290 | 1.0354 | - | - |
|
| 650 |
+
| **1.0345** | **300** | **0.9816** | **0.4879** | **0.427** |
|
| 651 |
+
| 1.0691 | 310 | 0.9749 | - | - |
|
| 652 |
+
| 1.1036 | 320 | 0.9743 | - | - |
|
| 653 |
+
| 1.1382 | 330 | 0.905 | - | - |
|
| 654 |
+
| 1.1727 | 340 | 0.9706 | - | - |
|
| 655 |
+
| 1.2073 | 350 | 0.9017 | 0.4866 | 0.4252 |
|
| 656 |
+
| 1.2418 | 360 | 0.9318 | - | - |
|
| 657 |
+
| 1.2763 | 370 | 0.9577 | - | - |
|
| 658 |
+
| 1.3109 | 380 | 0.9529 | - | - |
|
| 659 |
+
| 1.3454 | 390 | 0.9866 | - | - |
|
| 660 |
+
| 1.3800 | 400 | 0.9696 | 0.4863 | 0.4243 |
|
| 661 |
+
| 1.4145 | 410 | 0.9322 | - | - |
|
| 662 |
+
| 1.4491 | 420 | 0.9313 | - | - |
|
| 663 |
+
| 1.4836 | 430 | 0.9352 | - | - |
|
| 664 |
+
| 1.5181 | 440 | 0.9885 | - | - |
|
| 665 |
+
| 1.5527 | 450 | 0.873 | 0.4864 | 0.4254 |
|
| 666 |
+
| 1.5872 | 460 | 0.9204 | - | - |
|
| 667 |
+
| 1.6218 | 470 | 0.9117 | - | - |
|
| 668 |
+
| 1.6563 | 480 | 0.8663 | - | - |
|
| 669 |
+
| 1.6908 | 490 | 0.9397 | - | - |
|
| 670 |
+
| 1.7254 | 500 | 0.8624 | 0.4873 | 0.4259 |
|
| 671 |
+
| 1.7599 | 510 | 0.91 | - | - |
|
| 672 |
+
| 1.7945 | 520 | 0.9202 | - | - |
|
| 673 |
+
| 1.8290 | 530 | 0.9903 | - | - |
|
| 674 |
+
| 1.8636 | 540 | 0.8564 | - | - |
|
| 675 |
+
| 1.8981 | 550 | 0.9594 | 0.4867 | 0.4253 |
|
| 676 |
+
| 1.9326 | 560 | 0.9858 | - | - |
|
| 677 |
+
| 1.9672 | 570 | 0.9477 | - | - |
|
| 678 |
+
| 2.0 | 580 | 0.9216 | - | - |
|
| 679 |
+
|
| 680 |
+
* The bold row denotes the saved checkpoint.
|
| 681 |
+
|
| 682 |
+
### Framework Versions
|
| 683 |
+
- Python: 3.12.0
|
| 684 |
+
- Sentence Transformers: 5.1.2
|
| 685 |
+
- Transformers: 4.57.1
|
| 686 |
+
- PyTorch: 2.8.0+cu128
|
| 687 |
+
- Accelerate: 1.11.0
|
| 688 |
+
- Datasets: 4.4.1
|
| 689 |
+
- Tokenizers: 0.22.1
|
| 690 |
+
|
| 691 |
+
## Citation
|
| 692 |
+
|
| 693 |
+
### BibTeX
|
| 694 |
+
|
| 695 |
+
#### Sentence Transformers
|
| 696 |
+
```bibtex
|
| 697 |
+
@inproceedings{reimers-2019-sentence-bert,
|
| 698 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
| 699 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
| 700 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
| 701 |
+
month = "11",
|
| 702 |
+
year = "2019",
|
| 703 |
+
publisher = "Association for Computational Linguistics",
|
| 704 |
+
url = "https://arxiv.org/abs/1908.10084",
|
| 705 |
+
}
|
| 706 |
+
```
|
| 707 |
+
|
| 708 |
+
#### MatryoshkaLoss
|
| 709 |
+
```bibtex
|
| 710 |
+
@misc{kusupati2024matryoshka,
|
| 711 |
+
title={Matryoshka Representation Learning},
|
| 712 |
+
author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
|
| 713 |
+
year={2024},
|
| 714 |
+
eprint={2205.13147},
|
| 715 |
+
archivePrefix={arXiv},
|
| 716 |
+
primaryClass={cs.LG}
|
| 717 |
+
}
|
| 718 |
+
```
|
| 719 |
+
|
| 720 |
+
#### MultipleNegativesRankingLoss
|
| 721 |
+
```bibtex
|
| 722 |
+
@misc{henderson2017efficient,
|
| 723 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
| 724 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
| 725 |
+
year={2017},
|
| 726 |
+
eprint={1705.00652},
|
| 727 |
+
archivePrefix={arXiv},
|
| 728 |
+
primaryClass={cs.CL}
|
| 729 |
+
}
|
| 730 |
+
```
|
| 731 |
+
|
| 732 |
+
<!--
|
| 733 |
+
## Glossary
|
| 734 |
+
|
| 735 |
+
*Clearly define terms in order to be accessible across audiences.*
|
| 736 |
+
-->
|
| 737 |
+
|
| 738 |
+
<!--
|
| 739 |
+
## Model Card Authors
|
| 740 |
+
|
| 741 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
| 742 |
+
-->
|
| 743 |
+
|
| 744 |
+
<!--
|
| 745 |
+
## Model Card Contact
|
| 746 |
+
|
| 747 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
| 748 |
+
-->
|
added_tokens.json
ADDED
|
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"</think>": 151668,
|
| 3 |
+
"</tool_call>": 151658,
|
| 4 |
+
"</tool_response>": 151666,
|
| 5 |
+
"<think>": 151667,
|
| 6 |
+
"<tool_call>": 151657,
|
| 7 |
+
"<tool_response>": 151665,
|
| 8 |
+
"<|box_end|>": 151649,
|
| 9 |
+
"<|box_start|>": 151648,
|
| 10 |
+
"<|endoftext|>": 151643,
|
| 11 |
+
"<|file_sep|>": 151664,
|
| 12 |
+
"<|fim_middle|>": 151660,
|
| 13 |
+
"<|fim_pad|>": 151662,
|
| 14 |
+
"<|fim_prefix|>": 151659,
|
| 15 |
+
"<|fim_suffix|>": 151661,
|
| 16 |
+
"<|im_end|>": 151645,
|
| 17 |
+
"<|im_start|>": 151644,
|
| 18 |
+
"<|image_pad|>": 151655,
|
| 19 |
+
"<|object_ref_end|>": 151647,
|
| 20 |
+
"<|object_ref_start|>": 151646,
|
| 21 |
+
"<|quad_end|>": 151651,
|
| 22 |
+
"<|quad_start|>": 151650,
|
| 23 |
+
"<|repo_name|>": 151663,
|
| 24 |
+
"<|video_pad|>": 151656,
|
| 25 |
+
"<|vision_end|>": 151653,
|
| 26 |
+
"<|vision_pad|>": 151654,
|
| 27 |
+
"<|vision_start|>": 151652
|
| 28 |
+
}
|
chat_template.jinja
ADDED
|
@@ -0,0 +1,85 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{%- if tools %}
|
| 2 |
+
{{- '<|im_start|>system\n' }}
|
| 3 |
+
{%- if messages[0].role == 'system' %}
|
| 4 |
+
{{- messages[0].content + '\n\n' }}
|
| 5 |
+
{%- endif %}
|
| 6 |
+
{{- "# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
|
| 7 |
+
{%- for tool in tools %}
|
| 8 |
+
{{- "\n" }}
|
| 9 |
+
{{- tool | tojson }}
|
| 10 |
+
{%- endfor %}
|
| 11 |
+
{{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
|
| 12 |
+
{%- else %}
|
| 13 |
+
{%- if messages[0].role == 'system' %}
|
| 14 |
+
{{- '<|im_start|>system\n' + messages[0].content + '<|im_end|>\n' }}
|
| 15 |
+
{%- endif %}
|
| 16 |
+
{%- endif %}
|
| 17 |
+
{%- set ns = namespace(multi_step_tool=true, last_query_index=messages|length - 1) %}
|
| 18 |
+
{%- for message in messages[::-1] %}
|
| 19 |
+
{%- set index = (messages|length - 1) - loop.index0 %}
|
| 20 |
+
{%- if ns.multi_step_tool and message.role == "user" and not(message.content.startswith('<tool_response>') and message.content.endswith('</tool_response>')) %}
|
| 21 |
+
{%- set ns.multi_step_tool = false %}
|
| 22 |
+
{%- set ns.last_query_index = index %}
|
| 23 |
+
{%- endif %}
|
| 24 |
+
{%- endfor %}
|
| 25 |
+
{%- for message in messages %}
|
| 26 |
+
{%- if (message.role == "user") or (message.role == "system" and not loop.first) %}
|
| 27 |
+
{{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
|
| 28 |
+
{%- elif message.role == "assistant" %}
|
| 29 |
+
{%- set content = message.content %}
|
| 30 |
+
{%- set reasoning_content = '' %}
|
| 31 |
+
{%- if message.reasoning_content is defined and message.reasoning_content is not none %}
|
| 32 |
+
{%- set reasoning_content = message.reasoning_content %}
|
| 33 |
+
{%- else %}
|
| 34 |
+
{%- if '</think>' in message.content %}
|
| 35 |
+
{%- set content = message.content.split('</think>')[-1].lstrip('\n') %}
|
| 36 |
+
{%- set reasoning_content = message.content.split('</think>')[0].rstrip('\n').split('<think>')[-1].lstrip('\n') %}
|
| 37 |
+
{%- endif %}
|
| 38 |
+
{%- endif %}
|
| 39 |
+
{%- if loop.index0 > ns.last_query_index %}
|
| 40 |
+
{%- if loop.last or (not loop.last and reasoning_content) %}
|
| 41 |
+
{{- '<|im_start|>' + message.role + '\n<think>\n' + reasoning_content.strip('\n') + '\n</think>\n\n' + content.lstrip('\n') }}
|
| 42 |
+
{%- else %}
|
| 43 |
+
{{- '<|im_start|>' + message.role + '\n' + content }}
|
| 44 |
+
{%- endif %}
|
| 45 |
+
{%- else %}
|
| 46 |
+
{{- '<|im_start|>' + message.role + '\n' + content }}
|
| 47 |
+
{%- endif %}
|
| 48 |
+
{%- if message.tool_calls %}
|
| 49 |
+
{%- for tool_call in message.tool_calls %}
|
| 50 |
+
{%- if (loop.first and content) or (not loop.first) %}
|
| 51 |
+
{{- '\n' }}
|
| 52 |
+
{%- endif %}
|
| 53 |
+
{%- if tool_call.function %}
|
| 54 |
+
{%- set tool_call = tool_call.function %}
|
| 55 |
+
{%- endif %}
|
| 56 |
+
{{- '<tool_call>\n{"name": "' }}
|
| 57 |
+
{{- tool_call.name }}
|
| 58 |
+
{{- '", "arguments": ' }}
|
| 59 |
+
{%- if tool_call.arguments is string %}
|
| 60 |
+
{{- tool_call.arguments }}
|
| 61 |
+
{%- else %}
|
| 62 |
+
{{- tool_call.arguments | tojson }}
|
| 63 |
+
{%- endif %}
|
| 64 |
+
{{- '}\n</tool_call>' }}
|
| 65 |
+
{%- endfor %}
|
| 66 |
+
{%- endif %}
|
| 67 |
+
{{- '<|im_end|>\n' }}
|
| 68 |
+
{%- elif message.role == "tool" %}
|
| 69 |
+
{%- if loop.first or (messages[loop.index0 - 1].role != "tool") %}
|
| 70 |
+
{{- '<|im_start|>user' }}
|
| 71 |
+
{%- endif %}
|
| 72 |
+
{{- '\n<tool_response>\n' }}
|
| 73 |
+
{{- message.content }}
|
| 74 |
+
{{- '\n</tool_response>' }}
|
| 75 |
+
{%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
|
| 76 |
+
{{- '<|im_end|>\n' }}
|
| 77 |
+
{%- endif %}
|
| 78 |
+
{%- endif %}
|
| 79 |
+
{%- endfor %}
|
| 80 |
+
{%- if add_generation_prompt %}
|
| 81 |
+
{{- '<|im_start|>assistant\n' }}
|
| 82 |
+
{%- if enable_thinking is defined and enable_thinking is false %}
|
| 83 |
+
{{- '<think>\n\n</think>\n\n' }}
|
| 84 |
+
{%- endif %}
|
| 85 |
+
{%- endif %}
|
config.json
ADDED
|
@@ -0,0 +1,60 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"architectures": [
|
| 3 |
+
"Qwen3Model"
|
| 4 |
+
],
|
| 5 |
+
"attention_bias": false,
|
| 6 |
+
"attention_dropout": 0.0,
|
| 7 |
+
"bos_token_id": 151643,
|
| 8 |
+
"dtype": "bfloat16",
|
| 9 |
+
"eos_token_id": 151643,
|
| 10 |
+
"head_dim": 128,
|
| 11 |
+
"hidden_act": "silu",
|
| 12 |
+
"hidden_size": 1024,
|
| 13 |
+
"initializer_range": 0.02,
|
| 14 |
+
"intermediate_size": 3072,
|
| 15 |
+
"layer_types": [
|
| 16 |
+
"full_attention",
|
| 17 |
+
"full_attention",
|
| 18 |
+
"full_attention",
|
| 19 |
+
"full_attention",
|
| 20 |
+
"full_attention",
|
| 21 |
+
"full_attention",
|
| 22 |
+
"full_attention",
|
| 23 |
+
"full_attention",
|
| 24 |
+
"full_attention",
|
| 25 |
+
"full_attention",
|
| 26 |
+
"full_attention",
|
| 27 |
+
"full_attention",
|
| 28 |
+
"full_attention",
|
| 29 |
+
"full_attention",
|
| 30 |
+
"full_attention",
|
| 31 |
+
"full_attention",
|
| 32 |
+
"full_attention",
|
| 33 |
+
"full_attention",
|
| 34 |
+
"full_attention",
|
| 35 |
+
"full_attention",
|
| 36 |
+
"full_attention",
|
| 37 |
+
"full_attention",
|
| 38 |
+
"full_attention",
|
| 39 |
+
"full_attention",
|
| 40 |
+
"full_attention",
|
| 41 |
+
"full_attention",
|
| 42 |
+
"full_attention",
|
| 43 |
+
"full_attention"
|
| 44 |
+
],
|
| 45 |
+
"max_position_embeddings": 32768,
|
| 46 |
+
"max_window_layers": 28,
|
| 47 |
+
"model_type": "qwen3",
|
| 48 |
+
"num_attention_heads": 16,
|
| 49 |
+
"num_hidden_layers": 28,
|
| 50 |
+
"num_key_value_heads": 8,
|
| 51 |
+
"rms_norm_eps": 1e-06,
|
| 52 |
+
"rope_scaling": null,
|
| 53 |
+
"rope_theta": 1000000,
|
| 54 |
+
"sliding_window": null,
|
| 55 |
+
"tie_word_embeddings": true,
|
| 56 |
+
"transformers_version": "4.57.1",
|
| 57 |
+
"use_cache": true,
|
| 58 |
+
"use_sliding_window": false,
|
| 59 |
+
"vocab_size": 151669
|
| 60 |
+
}
|
config_sentence_transformers.json
ADDED
|
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"prompts": {
|
| 3 |
+
"query": "Instruct: Given a web search query, retrieve relevant passages that answer the query\nQuery:",
|
| 4 |
+
"document": ""
|
| 5 |
+
},
|
| 6 |
+
"default_prompt_name": null,
|
| 7 |
+
"similarity_fn_name": "cosine",
|
| 8 |
+
"model_type": "SentenceTransformer",
|
| 9 |
+
"__version__": {
|
| 10 |
+
"sentence_transformers": "5.1.2",
|
| 11 |
+
"transformers": "4.57.1",
|
| 12 |
+
"pytorch": "2.8.0+cu128"
|
| 13 |
+
}
|
| 14 |
+
}
|
merges.txt
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|
model.safetensors
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:30dfca345b08a0baecf712fc079ad25c3cc5e19ca959a1d0315e1e8755efe0ed
|
| 3 |
+
size 1191586416
|
modules.json
ADDED
|
@@ -0,0 +1,20 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
[
|
| 2 |
+
{
|
| 3 |
+
"idx": 0,
|
| 4 |
+
"name": "0",
|
| 5 |
+
"path": "",
|
| 6 |
+
"type": "sentence_transformers.models.Transformer"
|
| 7 |
+
},
|
| 8 |
+
{
|
| 9 |
+
"idx": 1,
|
| 10 |
+
"name": "1",
|
| 11 |
+
"path": "1_Pooling",
|
| 12 |
+
"type": "sentence_transformers.models.Pooling"
|
| 13 |
+
},
|
| 14 |
+
{
|
| 15 |
+
"idx": 2,
|
| 16 |
+
"name": "2",
|
| 17 |
+
"path": "2_Normalize",
|
| 18 |
+
"type": "sentence_transformers.models.Normalize"
|
| 19 |
+
}
|
| 20 |
+
]
|
sentence_bert_config.json
ADDED
|
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"max_seq_length": 192,
|
| 3 |
+
"do_lower_case": false
|
| 4 |
+
}
|
special_tokens_map.json
ADDED
|
@@ -0,0 +1,31 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"additional_special_tokens": [
|
| 3 |
+
"<|im_start|>",
|
| 4 |
+
"<|im_end|>",
|
| 5 |
+
"<|object_ref_start|>",
|
| 6 |
+
"<|object_ref_end|>",
|
| 7 |
+
"<|box_start|>",
|
| 8 |
+
"<|box_end|>",
|
| 9 |
+
"<|quad_start|>",
|
| 10 |
+
"<|quad_end|>",
|
| 11 |
+
"<|vision_start|>",
|
| 12 |
+
"<|vision_end|>",
|
| 13 |
+
"<|vision_pad|>",
|
| 14 |
+
"<|image_pad|>",
|
| 15 |
+
"<|video_pad|>"
|
| 16 |
+
],
|
| 17 |
+
"eos_token": {
|
| 18 |
+
"content": "<|im_end|>",
|
| 19 |
+
"lstrip": false,
|
| 20 |
+
"normalized": false,
|
| 21 |
+
"rstrip": false,
|
| 22 |
+
"single_word": false
|
| 23 |
+
},
|
| 24 |
+
"pad_token": {
|
| 25 |
+
"content": "<|endoftext|>",
|
| 26 |
+
"lstrip": false,
|
| 27 |
+
"normalized": false,
|
| 28 |
+
"rstrip": false,
|
| 29 |
+
"single_word": false
|
| 30 |
+
}
|
| 31 |
+
}
|
tokenizer.json
ADDED
|
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
version https://git-lfs.github.com/spec/v1
|
| 2 |
+
oid sha256:5fdeb53f7184a683a77cdd86f31415be50aa95894c2d24072089572248abefe6
|
| 3 |
+
size 11423971
|
tokenizer_config.json
ADDED
|
@@ -0,0 +1,239 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
{
|
| 2 |
+
"add_bos_token": false,
|
| 3 |
+
"add_prefix_space": false,
|
| 4 |
+
"added_tokens_decoder": {
|
| 5 |
+
"151643": {
|
| 6 |
+
"content": "<|endoftext|>",
|
| 7 |
+
"lstrip": false,
|
| 8 |
+
"normalized": false,
|
| 9 |
+
"rstrip": false,
|
| 10 |
+
"single_word": false,
|
| 11 |
+
"special": true
|
| 12 |
+
},
|
| 13 |
+
"151644": {
|
| 14 |
+
"content": "<|im_start|>",
|
| 15 |
+
"lstrip": false,
|
| 16 |
+
"normalized": false,
|
| 17 |
+
"rstrip": false,
|
| 18 |
+
"single_word": false,
|
| 19 |
+
"special": true
|
| 20 |
+
},
|
| 21 |
+
"151645": {
|
| 22 |
+
"content": "<|im_end|>",
|
| 23 |
+
"lstrip": false,
|
| 24 |
+
"normalized": false,
|
| 25 |
+
"rstrip": false,
|
| 26 |
+
"single_word": false,
|
| 27 |
+
"special": true
|
| 28 |
+
},
|
| 29 |
+
"151646": {
|
| 30 |
+
"content": "<|object_ref_start|>",
|
| 31 |
+
"lstrip": false,
|
| 32 |
+
"normalized": false,
|
| 33 |
+
"rstrip": false,
|
| 34 |
+
"single_word": false,
|
| 35 |
+
"special": true
|
| 36 |
+
},
|
| 37 |
+
"151647": {
|
| 38 |
+
"content": "<|object_ref_end|>",
|
| 39 |
+
"lstrip": false,
|
| 40 |
+
"normalized": false,
|
| 41 |
+
"rstrip": false,
|
| 42 |
+
"single_word": false,
|
| 43 |
+
"special": true
|
| 44 |
+
},
|
| 45 |
+
"151648": {
|
| 46 |
+
"content": "<|box_start|>",
|
| 47 |
+
"lstrip": false,
|
| 48 |
+
"normalized": false,
|
| 49 |
+
"rstrip": false,
|
| 50 |
+
"single_word": false,
|
| 51 |
+
"special": true
|
| 52 |
+
},
|
| 53 |
+
"151649": {
|
| 54 |
+
"content": "<|box_end|>",
|
| 55 |
+
"lstrip": false,
|
| 56 |
+
"normalized": false,
|
| 57 |
+
"rstrip": false,
|
| 58 |
+
"single_word": false,
|
| 59 |
+
"special": true
|
| 60 |
+
},
|
| 61 |
+
"151650": {
|
| 62 |
+
"content": "<|quad_start|>",
|
| 63 |
+
"lstrip": false,
|
| 64 |
+
"normalized": false,
|
| 65 |
+
"rstrip": false,
|
| 66 |
+
"single_word": false,
|
| 67 |
+
"special": true
|
| 68 |
+
},
|
| 69 |
+
"151651": {
|
| 70 |
+
"content": "<|quad_end|>",
|
| 71 |
+
"lstrip": false,
|
| 72 |
+
"normalized": false,
|
| 73 |
+
"rstrip": false,
|
| 74 |
+
"single_word": false,
|
| 75 |
+
"special": true
|
| 76 |
+
},
|
| 77 |
+
"151652": {
|
| 78 |
+
"content": "<|vision_start|>",
|
| 79 |
+
"lstrip": false,
|
| 80 |
+
"normalized": false,
|
| 81 |
+
"rstrip": false,
|
| 82 |
+
"single_word": false,
|
| 83 |
+
"special": true
|
| 84 |
+
},
|
| 85 |
+
"151653": {
|
| 86 |
+
"content": "<|vision_end|>",
|
| 87 |
+
"lstrip": false,
|
| 88 |
+
"normalized": false,
|
| 89 |
+
"rstrip": false,
|
| 90 |
+
"single_word": false,
|
| 91 |
+
"special": true
|
| 92 |
+
},
|
| 93 |
+
"151654": {
|
| 94 |
+
"content": "<|vision_pad|>",
|
| 95 |
+
"lstrip": false,
|
| 96 |
+
"normalized": false,
|
| 97 |
+
"rstrip": false,
|
| 98 |
+
"single_word": false,
|
| 99 |
+
"special": true
|
| 100 |
+
},
|
| 101 |
+
"151655": {
|
| 102 |
+
"content": "<|image_pad|>",
|
| 103 |
+
"lstrip": false,
|
| 104 |
+
"normalized": false,
|
| 105 |
+
"rstrip": false,
|
| 106 |
+
"single_word": false,
|
| 107 |
+
"special": true
|
| 108 |
+
},
|
| 109 |
+
"151656": {
|
| 110 |
+
"content": "<|video_pad|>",
|
| 111 |
+
"lstrip": false,
|
| 112 |
+
"normalized": false,
|
| 113 |
+
"rstrip": false,
|
| 114 |
+
"single_word": false,
|
| 115 |
+
"special": true
|
| 116 |
+
},
|
| 117 |
+
"151657": {
|
| 118 |
+
"content": "<tool_call>",
|
| 119 |
+
"lstrip": false,
|
| 120 |
+
"normalized": false,
|
| 121 |
+
"rstrip": false,
|
| 122 |
+
"single_word": false,
|
| 123 |
+
"special": false
|
| 124 |
+
},
|
| 125 |
+
"151658": {
|
| 126 |
+
"content": "</tool_call>",
|
| 127 |
+
"lstrip": false,
|
| 128 |
+
"normalized": false,
|
| 129 |
+
"rstrip": false,
|
| 130 |
+
"single_word": false,
|
| 131 |
+
"special": false
|
| 132 |
+
},
|
| 133 |
+
"151659": {
|
| 134 |
+
"content": "<|fim_prefix|>",
|
| 135 |
+
"lstrip": false,
|
| 136 |
+
"normalized": false,
|
| 137 |
+
"rstrip": false,
|
| 138 |
+
"single_word": false,
|
| 139 |
+
"special": false
|
| 140 |
+
},
|
| 141 |
+
"151660": {
|
| 142 |
+
"content": "<|fim_middle|>",
|
| 143 |
+
"lstrip": false,
|
| 144 |
+
"normalized": false,
|
| 145 |
+
"rstrip": false,
|
| 146 |
+
"single_word": false,
|
| 147 |
+
"special": false
|
| 148 |
+
},
|
| 149 |
+
"151661": {
|
| 150 |
+
"content": "<|fim_suffix|>",
|
| 151 |
+
"lstrip": false,
|
| 152 |
+
"normalized": false,
|
| 153 |
+
"rstrip": false,
|
| 154 |
+
"single_word": false,
|
| 155 |
+
"special": false
|
| 156 |
+
},
|
| 157 |
+
"151662": {
|
| 158 |
+
"content": "<|fim_pad|>",
|
| 159 |
+
"lstrip": false,
|
| 160 |
+
"normalized": false,
|
| 161 |
+
"rstrip": false,
|
| 162 |
+
"single_word": false,
|
| 163 |
+
"special": false
|
| 164 |
+
},
|
| 165 |
+
"151663": {
|
| 166 |
+
"content": "<|repo_name|>",
|
| 167 |
+
"lstrip": false,
|
| 168 |
+
"normalized": false,
|
| 169 |
+
"rstrip": false,
|
| 170 |
+
"single_word": false,
|
| 171 |
+
"special": false
|
| 172 |
+
},
|
| 173 |
+
"151664": {
|
| 174 |
+
"content": "<|file_sep|>",
|
| 175 |
+
"lstrip": false,
|
| 176 |
+
"normalized": false,
|
| 177 |
+
"rstrip": false,
|
| 178 |
+
"single_word": false,
|
| 179 |
+
"special": false
|
| 180 |
+
},
|
| 181 |
+
"151665": {
|
| 182 |
+
"content": "<tool_response>",
|
| 183 |
+
"lstrip": false,
|
| 184 |
+
"normalized": false,
|
| 185 |
+
"rstrip": false,
|
| 186 |
+
"single_word": false,
|
| 187 |
+
"special": false
|
| 188 |
+
},
|
| 189 |
+
"151666": {
|
| 190 |
+
"content": "</tool_response>",
|
| 191 |
+
"lstrip": false,
|
| 192 |
+
"normalized": false,
|
| 193 |
+
"rstrip": false,
|
| 194 |
+
"single_word": false,
|
| 195 |
+
"special": false
|
| 196 |
+
},
|
| 197 |
+
"151667": {
|
| 198 |
+
"content": "<think>",
|
| 199 |
+
"lstrip": false,
|
| 200 |
+
"normalized": false,
|
| 201 |
+
"rstrip": false,
|
| 202 |
+
"single_word": false,
|
| 203 |
+
"special": false
|
| 204 |
+
},
|
| 205 |
+
"151668": {
|
| 206 |
+
"content": "</think>",
|
| 207 |
+
"lstrip": false,
|
| 208 |
+
"normalized": false,
|
| 209 |
+
"rstrip": false,
|
| 210 |
+
"single_word": false,
|
| 211 |
+
"special": false
|
| 212 |
+
}
|
| 213 |
+
},
|
| 214 |
+
"additional_special_tokens": [
|
| 215 |
+
"<|im_start|>",
|
| 216 |
+
"<|im_end|>",
|
| 217 |
+
"<|object_ref_start|>",
|
| 218 |
+
"<|object_ref_end|>",
|
| 219 |
+
"<|box_start|>",
|
| 220 |
+
"<|box_end|>",
|
| 221 |
+
"<|quad_start|>",
|
| 222 |
+
"<|quad_end|>",
|
| 223 |
+
"<|vision_start|>",
|
| 224 |
+
"<|vision_end|>",
|
| 225 |
+
"<|vision_pad|>",
|
| 226 |
+
"<|image_pad|>",
|
| 227 |
+
"<|video_pad|>"
|
| 228 |
+
],
|
| 229 |
+
"bos_token": null,
|
| 230 |
+
"clean_up_tokenization_spaces": false,
|
| 231 |
+
"eos_token": "<|im_end|>",
|
| 232 |
+
"errors": "replace",
|
| 233 |
+
"extra_special_tokens": {},
|
| 234 |
+
"model_max_length": 131072,
|
| 235 |
+
"pad_token": "<|endoftext|>",
|
| 236 |
+
"split_special_tokens": false,
|
| 237 |
+
"tokenizer_class": "Qwen2Tokenizer",
|
| 238 |
+
"unk_token": null
|
| 239 |
+
}
|
vocab.json
ADDED
|
The diff for this file is too large to render.
See raw diff
|
|
|