vsevolodl commited on
Commit
db26ca5
·
verified ·
1 Parent(s): f2f3bf8

Upload folder using huggingface_hub

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": false,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": true,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,748 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - multilingual
4
+ license: apache-2.0
5
+ tags:
6
+ - sentence-transformers
7
+ - sentence-similarity
8
+ - feature-extraction
9
+ - dense
10
+ - generated_from_trainer
11
+ - dataset_size:73994
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: Qwen/Qwen3-Embedding-0.6B
15
+ widget:
16
+ - source_sentence: Under what circumstances can a judge's ruling from a place of wrongdoers
17
+ be executed, according to Islamic law?
18
+ sentences:
19
+ - 'بالتصرف دون صاحبه(). \n\nأما الوصايا التي يجوز تنفيذها والتي لا يجوز تنفيذها،
20
+ وشروط الموصي والوصي فيرجع لمعرفة ذلك إلى مصطلح «وصية». \n\nتنفيذ حكم قاضي البغاة:
21
+ \n\n9 - لا خلاف بين الفقهاء في أنه لو ظهر أهل البغي على بلد فولوا قاضيا منهم،
22
+ فرفع حكمه إلى قاضي أهل العدل نفذ من أحكامه ما ينفذ من أحكام قاضي أهل العدل بشروط
23
+ هي: \n\nأ - أن يكون لهم تأويل غير ظاهر البطلان، فإن لم يكن لهم تأويل فلا ينفذ
24
+ أحكام قاضيهم. وقال المالكية: فإن لم يكن لهم تأويل فيتعقب أحكامه، فما وجد منها
25
+ صوابا مضى، وما ليس كذلك رد. \n\nب - ألا يكون ممن يستبيحون دماء أهل العدل وأموالهم،
26
+ فإن كانوا كذلك لا تنفذ'
27
+ - '(زكاة الفطر). \n\nج - العشور: \n\n13 - ذهب المالكية والحنابلة إلى عدم جواز \n\nالتحول
28
+ عن الواجب إلى البدل في العشور(). \n\nوذهب الحنفية إلى جواز التحول عن الواجب إلى
29
+ البدل في العشور، وذلك للأدلة التي سبق ذكرها، وكذلك يجوز التحول من الواجب إلى الأعلى
30
+ فقط عند الشافعية إذا كانت الحبوب والثمار نوعا واحدا. \n\nوإن اختلفت الأنواع: أخذ
31
+ الواجب من كل نوع بالحصة إن لم يتعسر، فإن عسر أخذ الواجب من كل نوع بأن كثرت، وقل
32
+ ثمرها ففيه أوجه: \n\nالوجه الأول، وهو الصحيح: أنه يخرج من الوسط رعاية للجانبين().
33
+ \n\nوالثاني: يؤخذ من كل نوع بقسطه. \n\nوالثالث: من الغالب، وقيل: يؤخذ الوسط قطعا().
34
+ \n\nوفي الموضوع'
35
+ - 'ومعه أكثر العلماء() حيث لم يعدوا الموالي من الآل. أما أزواجه فذكر أبو الحسن
36
+ بن بطال في شرح البخاري أن الفقهاء كافة اتفقوا على أن أزواجه لا يدخلن في آله
37
+ الذين حرمت عليهم الصدقة،() لكن في المغني عن عائشة ما يخالف ذلك. قال: روى الخلال
38
+ بإسناده \n\nعن ابن أبي مليكة أن خالد بن سعيد بن العاص بعث إلى عائشة سفرة من الصدقة،
39
+ فردتها، وقالت: إنا آل محمد لا تحل لنا الصدقة. قال صاحب المغني: وهذا يدل على أنهن
40
+ من أهل بيته في تحريم الزكاة. وذكر الشيخ تقي الدين أنه يحرم عليهن الصدقة وأنهن
41
+ من أهل بيته في أصح الروايتين(). \n\nحكم أخذ آل البيت من الصدقة المفروضة: \n\n6
42
+ - إن آل محمد'
43
+ - source_sentence: According to which school of thought does the contract become valid
44
+ if it specifies planting and sowing but does not mention the quantity?
45
+ sentences:
46
+ - 'وضع الاسم العلم للمولود وغيره، وبمعنى: تحديد العوض في العقود، \n\nكالمهر والأجرة
47
+ والثمن، وبمعنى: التعيين بالاسم مقابل الإبهام. \n\nالألفاظ ذات الصلة: \n\nأ - التكنية:
48
+ \n\n2 - التكنية مصدر: كنى بتشديد النون، أي: جعل له كنية، كأبي فلان وأم فلان()
49
+ \n\nوتفصيل الأحكام المتعلقة بالتكنية ينظر في مصطلح (كنية). \n\nب - التلقيب: \n\n3
50
+ - التلقيب: مصدر لقب بتشديد القاف. واللقب واحد الألقاب، وهو ما كان مشعرا بمدح أو
51
+ ذم. \n\nومعناه: النبز بالتمييز(). والنبز بالألقاب المكروهة منهي عنه في : ولا
52
+ تنابزوا بالألقاب(). \n\nفإن قصد به التعريف فلا يدخل تحت النهي، ومن ذلك تعريف بعض
53
+ الأئمة المتقدمين، كالأعمش'
54
+ - 'من كتب الفقه وفي مصطلح (إقرار) \n\nالتناقض في الشهادة: \n\n6 - لا يخلو التناقض
55
+ في شهادة الشهود من أحد ثلاثة أحوال: \n\nأ - التناقض في الشها��ة قبل الحكم: \n\nإذا
56
+ حصل التناقض في الشهادة برجوع الشهود() عن كل أو بعض شهادتهم بعد أداء الشهادة وقبل
57
+ الحكم بحضور القاضي تكون شهادتهم كأن لم تكن، ولا يصح الحكم بموجب \n\nشهادتهم؛ لأن
58
+ الشهود لما أكذبوا أنفسهم بالرجوع تناقض كلامهم، والقضاء بالكلام المتناقض لا يجوز؛
59
+ لأنه لا يدري أصدقوا في الأول أم في الثاني، \n\nوهذا قول عامة أهل العلم. \n\nوقال
60
+ أبو ثور: يحكم بموجب هذه الشهادة؛ لأنها قد أديت فلا تبطل برجوع من شهد بها كما لو
61
+ رجع الشهود بعد الحكم().'
62
+ - 'يضر بالأرض. \n\nأما إذا قال له: آجرتكها لتزرعها أو تغرسها، فإنه لا يصح؛ لأنه
63
+ لم يعين أحدهما، فوجدت جهالة. \n\nوإذا قال له: آجرتك لتزرعها وتغرسها، صح العقد
64
+ عند الحنابلة، وله أن يزرعها كلها ما شاء، أو أن يغرسها كلها ما شاء. وفي قول عند
65
+ الشافعية: يصح، وله أن يزرع النصف، ويغرس النصف؛ لأن الجمع يقتضي التسوية. وفي القول
66
+ الثاني: لا يصح؛ لأنه لم يبين المقدار من كل واحد منها. \n\nأما إن أطلق، وقال: آجرتك
67
+ لتنتفع بها ما شئت، فله الزرع والغرس والبناء عند الحنابلة، للإطلاق. وللشافعية في
68
+ الأرض التي لا ماء لها، ولم يذكر أنه يكتريها للزراعة، وجهان: \n\nأحدهما: لا يصح،
69
+ لأن الأرض عادة تكترى'
70
+ - source_sentence: من هو رجل بريرة الذي كانت زوجته له قد اعتقت؟
71
+ sentences:
72
+ - أهل العلم على أنه إذا عتقت الأمة - وزوجها عبد - فلها الخيار في فسخ النكاح لخبر
73
+ بريرة . قالت عائشة «كاتبت بريرة فخيرها رسول الله في زوجها، وكان عبدا فاختارت
74
+ نفسها»(). ولأن \n\nعليها ضررا في كونها حرة تحت عبد. \n\nواختلفوا فيما إذا عتقت
75
+ وزوجها حر، فالجمهور على أنه لا خيار لها، لأنها كافأت زوجها في الكمال، فلم يثبت
76
+ لها الخيار. \n\nوذهب طاوس وابن سيرين ومجاهد والنخعي والثوري والحنفية إلى أن لها
77
+ الخيار. واستدلوا بما روي في حديث بريرة أن زوجها كان حرا، كما رواه النسائي في سننه().
78
+ \n\nوأجمع الفقهاء على بقاء نكاح الكتابية التي أسلم زوجها، سواء قبل الدخول أو بعده،
79
+ لأن للمسلم أن يبتدئ
80
+ - 'قال: إن أقل التعزير ليس مقدرا فيرجع فيه إلى اجتهاد الإمام أو الحاكم فيما يراه
81
+ وما تقتضيه حال الشخص(). \n\nج - التعزير بالحبس : \n\n16 - الحبس مشروع بالكتاب
82
+ والسنة والإجماع \n\nأما الكتاب فقوله تعالى: واللاتي يأتين الفاحشة من نسائكم فاستشهدوا
83
+ عليهن أربعة منكم فإن شهدوا فأمسكوهن في البيوت حتى يتوفاهن الموت أو يجعل الله لهن
84
+ سبيلا() وقوله: إنما جزاء الذين يحاربون الله ورسوله ويسعون في الأرض فسادا أن يقتلوا
85
+ أو يصلبوا أو تقطع أيديهم وأرجلهم من خلاف أو ينفوا من الأرض(). فقد قال الزيلعي:
86
+ إن المقصود بالنفي هنا الحبس. \n\nوأما السنة فقد ثبت: «أن الرسول حبس بالمدينة
87
+ أناسا في تهمة دم،'
88
+ - 'واختلاف الفقهاء في ذلك يرجع إليه في مصطلح: (قضاء). \n\nحرمان الوارث من الميراث
89
+ بالتهمة: \n\n12 - لا خلاف بين الفقهاء في حرمان القاتل عمدا عدوانا من الميراث.
90
+ واختلفوا في توريث القاتل خطأ أو القاتل بحق. فذهب البعض إلى حرمانهما، وذلك لتهمة
91
+ استعجال الإرث قبل أوانه. \n\nوالتفصيل: في مصطلح: (إرث). \n\nعدم وقوع طلاق المطلق
92
+ في مرض الموت: \n\n13 - لا يقع طلاق المريض مرض الموت عند فريق من الفقهاء لتهمة
93
+ قصد إضرار الزوجة بحرمانها الميراث. \n\nوانظر للتفصيل مصطلح: (طلاق). \n\nالتعزير
94
+ بالتهمة: \n\n14 - لا خلاف بين الفقهاء في أن الحدود لا تقام بالتهمة. \n\nأما التعزير
95
+ بالتهمة فقد ذهب الحنفية'
96
+ - source_sentence: هل يمكن اعتبار الإبراء كإسقاط، أم أنه يجب النظر إليه كتمليك، وفقًا
97
+ للآراء المختلفة بين المدارس القانونية؟
98
+ sentences:
99
+ - 'الملك. \n\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء
100
+ تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل،
101
+ لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما
102
+ يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \n\nومما غلب
103
+ فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \n\nعلى
104
+ أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية
105
+ أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط
106
+ يصح، وكذا بالنظر'
107
+ - 'الراء له عدد من المعاني منها: إلزام الشيء والتزامه. وأما بفتح الراء \n\nفمعناه
108
+ العلامة، ويجمع على أشراط كسبب وأسباب. \n\nومعناه في الاصطلاح كما قال الحموي: التزام
109
+ أمر لم يوجد في أمر وجد بصيغة مخصوصة(). \n\nوهو يشبه التقييد لما فيه من الالتزام.
110
+ \n\nالحكم الإجمالي: \n\n7 - ذكر الأصوليون والفقهاء الأحكام الخاصة بمصطلح تقييد
111
+ في عدد من المواطن، ومن أشهر مسائله عند الأصوليين مسألة حمل المطلق على المقيد،
112
+ ومما قالوه في ذلك أن المطلق والمقيد إما أن يختلفا في السبب والحكم، وإما أن يتفقا
113
+ فيهما، وإما أن يختلفا في السبب دون الحكم، فإن كان الأول فلا حمل اتفاقا، كما قال
114
+ الآمر لمن تلزمه طاعته:'
115
+ - 'يضر بالأرض. \n\nأما إذا قال له: آجرتكها لتزرعها أو تغرسها، فإنه لا يصح؛ لأنه
116
+ لم يعين أحدهما، فوجدت جهالة. \n\nوإذا قال له: آجرتك لتزرعها وتغرسها، صح العقد
117
+ عند الحنابلة، وله أن يزرعها كلها ما شاء، أو أن يغرسها كلها ما شاء. وفي قول عند
118
+ الشافعية: يصح، وله أن يزرع النصف، ويغرس النصف؛ لأن الجمع يقتضي التسوية. وفي القول
119
+ الثاني: لا يصح؛ لأنه لم يبين المقدار من كل واحد منها. \n\nأما إن أطلق، وقال: آجرتك
120
+ لتنتفع بها ما شئت، فله الزرع والغرس والبناء عند الحنابلة، للإطلاق. وللشافعية في
121
+ الأرض التي لا ماء لها، ولم يذكر أنه يكتريها للزراعة، وجهان: \n\nأحدهما: لا يصح،
122
+ لأن الأرض عادة تكترى'
123
+ - source_sentence: ما هي الأماكن الأخرى المهمة داخل حدود الحرم المكي الشريف؟
124
+ sentences:
125
+ - 'الملك. \n\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء
126
+ تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل،
127
+ لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما
128
+ يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \n\nومما غلب
129
+ فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \n\nعلى
130
+ أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية
131
+ أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط
132
+ يصح، وكذا بالنظر'
133
+ - 'نظيفا»() وذكر القاضي في حديث ابن عباس في «غسل النبي قال فجففوه بثوب»(). \n\nوللتفصيل
134
+ ينظر (ر: تكفين). \n\nالتنعيم \n\nالتعريف: \n\n1 - التنعيم موضع في الحل في شمال
135
+ مكة الغربي، وهو حد الحرم من جهة المدينة المنورة. \n\nقال الفاسي: المسافة بين باب
136
+ العمرة وبين أعلام الحرم في هذه الجهة التي في الأرض لا التي على الجبل اثنا عشر
137
+ ألف ذراع وأربعمائة ذراع وعشرون ذراعا بذراع اليد(). \n\nوإنما سمي التنعيم بهذا
138
+ الاسم لأن الجبل الذي عن يمين الداخل يقال له ناعم والذي عن اليسار يقال له منعم
139
+ أو نعيم والوادي نعمان(). \n\nالأحكام المتعلقة بالتنعيم: \n\n2 - أجمع الفقهاء على
140
+ أن المعتمر المكي لا بد له من'
141
+ - 'كفارا، ولم ينكر النبي ذلك عليه(). \n\nأخذ الأجرة على التعاويذ والرقى: \n\n28
142
+ - ذهب جمهور الفقهاء إلى جواز أخذ الأجرة على التعاويذ والرقى، وإليه ذهب عطاء، وأبو
143
+ قلابة، وأبو ثور، وإسحاق، واستدلوا بحديث أبي سعيد الخدري الذي سبق ذكره (ف - 14)
144
+ واستدل الطحاوي للجواز وقال: يجوز أخذ الأجر على الرقى، لأنه ليس على الناس أن يرقي
145
+ بعضهم بعضا؛ لأن في ذلك تبليغا عن الله تعالى. وكره الزهري أخذ الأجرة على القرآن
146
+ مطلقا، سواء أكان للتعليم أو للرقية(). \n\n\n\nتعويض \n\nالتعريف: \n\n1 - أصل التعويض
147
+ لغة: العوض، وهو البدل تقول: عوضته تعويضا إذا أعطيته بدل ما ذهب منه. وتعوض منه
148
+ واعتاض: أخذ العوض()'
149
+ pipeline_tag: sentence-similarity
150
+ library_name: sentence-transformers
151
+ metrics:
152
+ - cosine_accuracy@1
153
+ - cosine_accuracy@3
154
+ - cosine_accuracy@5
155
+ - cosine_accuracy@10
156
+ - cosine_precision@1
157
+ - cosine_precision@3
158
+ - cosine_precision@5
159
+ - cosine_precision@10
160
+ - cosine_recall@1
161
+ - cosine_recall@3
162
+ - cosine_recall@5
163
+ - cosine_recall@10
164
+ - cosine_ndcg@10
165
+ - cosine_mrr@10
166
+ - cosine_map@100
167
+ model-index:
168
+ - name: Qwen/Qwen3-Embedding-0.6B
169
+ results:
170
+ - task:
171
+ type: information-retrieval
172
+ name: Information Retrieval
173
+ dataset:
174
+ name: dim 1024
175
+ type: dim_1024
176
+ metrics:
177
+ - type: cosine_accuracy@1
178
+ value: 0.3421185054723865
179
+ name: Cosine Accuracy@1
180
+ - type: cosine_accuracy@3
181
+ value: 0.4978613662095861
182
+ name: Cosine Accuracy@3
183
+ - type: cosine_accuracy@5
184
+ value: 0.5620203799220028
185
+ name: Cosine Accuracy@5
186
+ - type: cosine_accuracy@10
187
+ value: 0.6451754937728016
188
+ name: Cosine Accuracy@10
189
+ - type: cosine_precision@1
190
+ value: 0.3421185054723865
191
+ name: Cosine Precision@1
192
+ - type: cosine_precision@3
193
+ value: 0.1659537887365287
194
+ name: Cosine Precision@3
195
+ - type: cosine_precision@5
196
+ value: 0.11240407598440055
197
+ name: Cosine Precision@5
198
+ - type: cosine_precision@10
199
+ value: 0.06451754937728015
200
+ name: Cosine Precision@10
201
+ - type: cosine_recall@1
202
+ value: 0.3421185054723865
203
+ name: Cosine Recall@1
204
+ - type: cosine_recall@3
205
+ value: 0.4978613662095861
206
+ name: Cosine Recall@3
207
+ - type: cosine_recall@5
208
+ value: 0.5620203799220028
209
+ name: Cosine Recall@5
210
+ - type: cosine_recall@10
211
+ value: 0.6451754937728016
212
+ name: Cosine Recall@10
213
+ - type: cosine_ndcg@10
214
+ value: 0.486654937958254
215
+ name: Cosine Ndcg@10
216
+ - type: cosine_mrr@10
217
+ value: 0.4367436155491217
218
+ name: Cosine Mrr@10
219
+ - type: cosine_map@100
220
+ value: 0.44450267121536374
221
+ name: Cosine Map@100
222
+ - task:
223
+ type: information-retrieval
224
+ name: Information Retrieval
225
+ dataset:
226
+ name: dim 256
227
+ type: dim_256
228
+ metrics:
229
+ - type: cosine_accuracy@1
230
+ value: 0.2872059378538181
231
+ name: Cosine Accuracy@1
232
+ - type: cosine_accuracy@3
233
+ value: 0.43389105547867657
234
+ name: Cosine Accuracy@3
235
+ - type: cosine_accuracy@5
236
+ value: 0.5002516039753429
237
+ name: Cosine Accuracy@5
238
+ - type: cosine_accuracy@10
239
+ value: 0.5771166184425713
240
+ name: Cosine Accuracy@10
241
+ - type: cosine_precision@1
242
+ value: 0.2872059378538181
243
+ name: Cosine Precision@1
244
+ - type: cosine_precision@3
245
+ value: 0.1446303518262255
246
+ name: Cosine Precision@3
247
+ - type: cosine_precision@5
248
+ value: 0.10005032079506855
249
+ name: Cosine Precision@5
250
+ - type: cosine_precision@10
251
+ value: 0.057711661844257134
252
+ name: Cosine Precision@10
253
+ - type: cosine_recall@1
254
+ value: 0.2872059378538181
255
+ name: Cosine Recall@1
256
+ - type: cosine_recall@3
257
+ value: 0.43389105547867657
258
+ name: Cosine Recall@3
259
+ - type: cosine_recall@5
260
+ value: 0.5002516039753429
261
+ name: Cosine Recall@5
262
+ - type: cosine_recall@10
263
+ value: 0.5771166184425713
264
+ name: Cosine Recall@10
265
+ - type: cosine_ndcg@10
266
+ value: 0.42525529772687953
267
+ name: Cosine Ndcg@10
268
+ - type: cosine_mrr@10
269
+ value: 0.3774421310856682
270
+ name: Cosine Mrr@10
271
+ - type: cosine_map@100
272
+ value: 0.38617365110911006
273
+ name: Cosine Map@100
274
+ ---
275
+
276
+ # Qwen/Qwen3-Embedding-0.6B
277
+
278
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
279
+
280
+ ## Model Details
281
+
282
+ ### Model Description
283
+ - **Model Type:** Sentence Transformer
284
+ - **Base model:** [Qwen/Qwen3-Embedding-0.6B](https://huggingface.co/Qwen/Qwen3-Embedding-0.6B) <!-- at revision c54f2e6e80b2d7b7de06f51cec4959f6b3e03418 -->
285
+ - **Maximum Sequence Length:** 192 tokens
286
+ - **Output Dimensionality:** 1024 dimensions
287
+ - **Similarity Function:** Cosine Similarity
288
+ <!-- - **Training Dataset:** Unknown -->
289
+ - **Language:** multilingual
290
+ - **License:** apache-2.0
291
+
292
+ ### Model Sources
293
+
294
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
295
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/huggingface/sentence-transformers)
296
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
297
+
298
+ ### Full Model Architecture
299
+
300
+ ```
301
+ SentenceTransformer(
302
+ (0): Transformer({'max_seq_length': 192, 'do_lower_case': False, 'architecture': 'Qwen3Model'})
303
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': True, 'include_prompt': True})
304
+ (2): Normalize()
305
+ )
306
+ ```
307
+
308
+ ## Usage
309
+
310
+ ### Direct Usage (Sentence Transformers)
311
+
312
+ First install the Sentence Transformers library:
313
+
314
+ ```bash
315
+ pip install -U sentence-transformers
316
+ ```
317
+
318
+ Then you can load this model and run inference.
319
+ ```python
320
+ from sentence_transformers import SentenceTransformer
321
+
322
+ # Download from the 🤗 Hub
323
+ model = SentenceTransformer("sentence_transformers_model_id")
324
+ # Run inference
325
+ queries = [
326
+ "\u0645\u0627 \u0647\u064a \u0627\u0644\u0623\u0645\u0627\u0643\u0646 \u0627\u0644\u0623\u062e\u0631\u0649 \u0627\u0644\u0645\u0647\u0645\u0629 \u062f\u0627\u062e\u0644 \u062d\u062f\u0648\u062f \u0627\u0644\u062d\u0631\u0645 \u0627\u0644\u0645\u0643\u064a \u0627\u0644\u0634\u0631\u064a\u0641\u061f",
327
+ ]
328
+ documents = [
329
+ 'نظيفا»() وذكر القاضي في حديث ابن عباس في «غسل النبي قال فجففوه بثوب»(). \\n\\nوللتفصيل ينظر (ر: تكفين). \\n\\nالتنعيم \\n\\nالتعريف: \\n\\n1 - التنعيم موضع في الحل في شمال مكة الغربي، وهو حد الحرم من جهة المدينة المنورة. \\n\\nقال الفاسي: المسافة بين باب العمرة وبين أعلام الحرم في هذه الجهة التي في الأرض لا التي على الجبل اثنا عشر ألف ذراع وأربعمائة ذراع وعشرون ذراعا بذراع اليد(). \\n\\nوإنما سمي التنعيم بهذا الاسم لأن الجبل الذي عن يمين الداخل يقال له ناعم والذي عن اليسار يقال له منعم أو نعيم والوادي نعمان(). \\n\\nالأحكام المتعلقة بالتنعيم: \\n\\n2 - أجمع الفقهاء على أن المعتمر المكي لا بد له من',
330
+ 'الملك. \\n\\nونقل القاضي زكريا عن النووي في الروضة قوله: المختار أن كون الإبراء تمليكا أو إسقاطا من المسائل التي لا يطلق فيها ترجيح، بل يختلف الراجح بحسب المسائل، لقوة الدليل وضعفه؛ لأن الإبراء إنما يكون تمليكا باعتبار أن الدين مال، وهو إنما يكون مالا في حق من له الدين، فإن أحكام المالية إنما تظهر في حقه. \\n\\nومما غلب فيه معنى التمليك عند المالكية ترجيحهم اشتراط القبول في الإبراء، كما سيأتي(). \\n\\nعلى أن هناك ما يصلح بالاعتبارين (الإسقاط والتمليك بالتساوي). ومنه ما نص عليه الحنفية أنه لو أبرأ الوارث مدين مورثه غير عالم بموته، ثم بان ميتا، فبالنظر إلى أنه إسقاط يصح، وكذا بالنظر',
331
+ 'كفارا، ولم ينكر النبي ذلك عليه(). \\n\\nأخذ الأجرة على التعاويذ والرقى: \\n\\n28 - ذهب جمهور الفقهاء إلى جواز أخذ الأجرة على التعاويذ والرقى، وإليه ذهب عطاء، وأبو قلابة، وأبو ثور، وإسحاق، واستدلوا بحديث أبي سعيد الخدري الذي سبق ذكره (ف - 14) واستدل الطحاوي للجواز وقال: يجوز أخذ الأجر على الرقى، لأنه ليس على الناس أن يرقي بعضهم بعضا؛ لأن في ذلك تبليغا عن الله تعالى. وكره الزهري أخذ الأجرة على القرآن مطلقا، سواء أكان للتعليم أو للرقية(). \\n\\n\\n\\nتعويض \\n\\nالتعريف: \\n\\n1 - أصل التعويض لغة: العوض، وهو البدل تقول: عوضته تعويضا إذا أعطيته بدل ما ذهب منه. وتعوض منه واعتاض: أخذ العوض()',
332
+ ]
333
+ query_embeddings = model.encode_query(queries)
334
+ document_embeddings = model.encode_document(documents)
335
+ print(query_embeddings.shape, document_embeddings.shape)
336
+ # [1, 1024] [3, 1024]
337
+
338
+ # Get the similarity scores for the embeddings
339
+ similarities = model.similarity(query_embeddings, document_embeddings)
340
+ print(similarities)
341
+ # tensor([[ 0.3507, -0.0306, -0.0986]])
342
+ ```
343
+
344
+ <!--
345
+ ### Direct Usage (Transformers)
346
+
347
+ <details><summary>Click to see the direct usage in Transformers</summary>
348
+
349
+ </details>
350
+ -->
351
+
352
+ <!--
353
+ ### Downstream Usage (Sentence Transformers)
354
+
355
+ You can finetune this model on your own dataset.
356
+
357
+ <details><summary>Click to expand</summary>
358
+
359
+ </details>
360
+ -->
361
+
362
+ <!--
363
+ ### Out-of-Scope Use
364
+
365
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
366
+ -->
367
+
368
+ ## Evaluation
369
+
370
+ ### Metrics
371
+
372
+ #### Information Retrieval
373
+
374
+ * Dataset: `dim_1024`
375
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
376
+ ```json
377
+ {
378
+ "truncate_dim": 1024
379
+ }
380
+ ```
381
+
382
+ | Metric | Value |
383
+ |:--------------------|:-----------|
384
+ | cosine_accuracy@1 | 0.3421 |
385
+ | cosine_accuracy@3 | 0.4979 |
386
+ | cosine_accuracy@5 | 0.562 |
387
+ | cosine_accuracy@10 | 0.6452 |
388
+ | cosine_precision@1 | 0.3421 |
389
+ | cosine_precision@3 | 0.166 |
390
+ | cosine_precision@5 | 0.1124 |
391
+ | cosine_precision@10 | 0.0645 |
392
+ | cosine_recall@1 | 0.3421 |
393
+ | cosine_recall@3 | 0.4979 |
394
+ | cosine_recall@5 | 0.562 |
395
+ | cosine_recall@10 | 0.6452 |
396
+ | **cosine_ndcg@10** | **0.4867** |
397
+ | cosine_mrr@10 | 0.4367 |
398
+ | cosine_map@100 | 0.4445 |
399
+
400
+ #### Information Retrieval
401
+
402
+ * Dataset: `dim_256`
403
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator) with these parameters:
404
+ ```json
405
+ {
406
+ "truncate_dim": 256
407
+ }
408
+ ```
409
+
410
+ | Metric | Value |
411
+ |:--------------------|:-----------|
412
+ | cosine_accuracy@1 | 0.2872 |
413
+ | cosine_accuracy@3 | 0.4339 |
414
+ | cosine_accuracy@5 | 0.5003 |
415
+ | cosine_accuracy@10 | 0.5771 |
416
+ | cosine_precision@1 | 0.2872 |
417
+ | cosine_precision@3 | 0.1446 |
418
+ | cosine_precision@5 | 0.1001 |
419
+ | cosine_precision@10 | 0.0577 |
420
+ | cosine_recall@1 | 0.2872 |
421
+ | cosine_recall@3 | 0.4339 |
422
+ | cosine_recall@5 | 0.5003 |
423
+ | cosine_recall@10 | 0.5771 |
424
+ | **cosine_ndcg@10** | **0.4253** |
425
+ | cosine_mrr@10 | 0.3774 |
426
+ | cosine_map@100 | 0.3862 |
427
+
428
+ <!--
429
+ ## Bias, Risks and Limitations
430
+
431
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
432
+ -->
433
+
434
+ <!--
435
+ ### Recommendations
436
+
437
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
438
+ -->
439
+
440
+ ## Training Details
441
+
442
+ ### Training Dataset
443
+
444
+ #### Unnamed Dataset
445
+
446
+ * Size: 73,994 training samples
447
+ * Columns: <code>anchor</code> and <code>positive</code>
448
+ * Approximate statistics based on the first 1000 samples:
449
+ | | anchor | positive |
450
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
451
+ | type | string | string |
452
+ | details | <ul><li>min: 3 tokens</li><li>mean: 24.27 tokens</li><li>max: 52 tokens</li></ul> | <ul><li>min: 192 tokens</li><li>mean: 192.0 tokens</li><li>max: 192 tokens</li></ul> |
453
+ * Samples:
454
+ | anchor | positive |
455
+ |:----------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
456
+ | <code>What specific practices did this group of followers engage in according to the given text?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
457
+ | <code>How does this group's approach to understanding religious texts impact legal rulings, particularly in matters related to judicial decisions?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
458
+ | <code>Can you explain the two contrasting effects mentioned for this group's methodology?</code> | <code>هذا الصنف من المتبعين قد كثر في العصور الأخيرة، فهم يعكفون على عبارات الكتب، لا يتجهون إلا إلى الالتقاط منها، من غير قصد لتعرف دليل ما \n\nيلتقطون، ويبنون عليه، بل يكتمون بأن يقولوا: هناك قول بهذا، وإن لم يكن له دليل قوي(). \n\nولقد كان لهذا الفريق أثران مختلفان: أحدهما خير، وهو ما يتعلق بالقضاء، فإنه إذا كان القضاء لا يصح إلا بالراجح من المذهب، فإن هؤلاء عملهم الاتباع لهذا الراجح، وفي ذلك ضبط للقضاء من غير أن يكون الأمر فرطا. وتقييد القضاء في الأزمان التي تنحرف فيها الأفكار واجب، بل إن الاتباع لا يكون حسنا إلا في الأحكام القضائية. \n\nالأثر الثاني: أن هذا فيه تقديس لأقوال</code> |
459
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
460
+ ```json
461
+ {
462
+ "loss": "MultipleNegativesRankingLoss",
463
+ "matryoshka_dims": [
464
+ 1024,
465
+ 256
466
+ ],
467
+ "matryoshka_weights": [
468
+ 1,
469
+ 1
470
+ ],
471
+ "n_dims_per_step": -1
472
+ }
473
+ ```
474
+
475
+ ### Training Hyperparameters
476
+ #### Non-Default Hyperparameters
477
+
478
+ - `eval_strategy`: steps
479
+ - `per_device_train_batch_size`: 128
480
+ - `per_device_eval_batch_size`: 64
481
+ - `gradient_accumulation_steps`: 2
482
+ - `learning_rate`: 2e-05
483
+ - `num_train_epochs`: 2
484
+ - `lr_scheduler_type`: cosine
485
+ - `warmup_ratio`: 0.1
486
+ - `bf16`: True
487
+ - `tf32`: True
488
+ - `load_best_model_at_end`: True
489
+ - `gradient_checkpointing`: True
490
+ - `batch_sampler`: no_duplicates
491
+
492
+ #### All Hyperparameters
493
+ <details><summary>Click to expand</summary>
494
+
495
+ - `overwrite_output_dir`: False
496
+ - `do_predict`: False
497
+ - `eval_strategy`: steps
498
+ - `prediction_loss_only`: True
499
+ - `per_device_train_batch_size`: 128
500
+ - `per_device_eval_batch_size`: 64
501
+ - `per_gpu_train_batch_size`: None
502
+ - `per_gpu_eval_batch_size`: None
503
+ - `gradient_accumulation_steps`: 2
504
+ - `eval_accumulation_steps`: None
505
+ - `torch_empty_cache_steps`: None
506
+ - `learning_rate`: 2e-05
507
+ - `weight_decay`: 0.0
508
+ - `adam_beta1`: 0.9
509
+ - `adam_beta2`: 0.999
510
+ - `adam_epsilon`: 1e-08
511
+ - `max_grad_norm`: 1.0
512
+ - `num_train_epochs`: 2
513
+ - `max_steps`: -1
514
+ - `lr_scheduler_type`: cosine
515
+ - `lr_scheduler_kwargs`: {}
516
+ - `warmup_ratio`: 0.1
517
+ - `warmup_steps`: 0
518
+ - `log_level`: passive
519
+ - `log_level_replica`: warning
520
+ - `log_on_each_node`: True
521
+ - `logging_nan_inf_filter`: True
522
+ - `save_safetensors`: True
523
+ - `save_on_each_node`: False
524
+ - `save_only_model`: False
525
+ - `restore_callback_states_from_checkpoint`: False
526
+ - `no_cuda`: False
527
+ - `use_cpu`: False
528
+ - `use_mps_device`: False
529
+ - `seed`: 42
530
+ - `data_seed`: None
531
+ - `jit_mode_eval`: False
532
+ - `bf16`: True
533
+ - `fp16`: False
534
+ - `fp16_opt_level`: O1
535
+ - `half_precision_backend`: auto
536
+ - `bf16_full_eval`: False
537
+ - `fp16_full_eval`: False
538
+ - `tf32`: True
539
+ - `local_rank`: 0
540
+ - `ddp_backend`: None
541
+ - `tpu_num_cores`: None
542
+ - `tpu_metrics_debug`: False
543
+ - `debug`: []
544
+ - `dataloader_drop_last`: False
545
+ - `dataloader_num_workers`: 0
546
+ - `dataloader_prefetch_factor`: None
547
+ - `past_index`: -1
548
+ - `disable_tqdm`: False
549
+ - `remove_unused_columns`: True
550
+ - `label_names`: None
551
+ - `load_best_model_at_end`: True
552
+ - `ignore_data_skip`: False
553
+ - `fsdp`: []
554
+ - `fsdp_min_num_params`: 0
555
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
556
+ - `fsdp_transformer_layer_cls_to_wrap`: None
557
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
558
+ - `parallelism_config`: None
559
+ - `deepspeed`: None
560
+ - `label_smoothing_factor`: 0.0
561
+ - `optim`: adamw_torch_fused
562
+ - `optim_args`: None
563
+ - `adafactor`: False
564
+ - `group_by_length`: False
565
+ - `length_column_name`: length
566
+ - `project`: huggingface
567
+ - `trackio_space_id`: trackio
568
+ - `ddp_find_unused_parameters`: None
569
+ - `ddp_bucket_cap_mb`: None
570
+ - `ddp_broadcast_buffers`: False
571
+ - `dataloader_pin_memory`: True
572
+ - `dataloader_persistent_workers`: False
573
+ - `skip_memory_metrics`: True
574
+ - `use_legacy_prediction_loop`: False
575
+ - `push_to_hub`: False
576
+ - `resume_from_checkpoint`: None
577
+ - `hub_model_id`: None
578
+ - `hub_strategy`: every_save
579
+ - `hub_private_repo`: None
580
+ - `hub_always_push`: False
581
+ - `hub_revision`: None
582
+ - `gradient_checkpointing`: True
583
+ - `gradient_checkpointing_kwargs`: None
584
+ - `include_inputs_for_metrics`: False
585
+ - `include_for_metrics`: []
586
+ - `eval_do_concat_batches`: True
587
+ - `fp16_backend`: auto
588
+ - `push_to_hub_model_id`: None
589
+ - `push_to_hub_organization`: None
590
+ - `mp_parameters`:
591
+ - `auto_find_batch_size`: False
592
+ - `full_determinism`: False
593
+ - `torchdynamo`: None
594
+ - `ray_scope`: last
595
+ - `ddp_timeout`: 1800
596
+ - `torch_compile`: False
597
+ - `torch_compile_backend`: None
598
+ - `torch_compile_mode`: None
599
+ - `include_tokens_per_second`: False
600
+ - `include_num_input_tokens_seen`: no
601
+ - `neftune_noise_alpha`: None
602
+ - `optim_target_modules`: None
603
+ - `batch_eval_metrics`: False
604
+ - `eval_on_start`: False
605
+ - `use_liger_kernel`: False
606
+ - `liger_kernel_config`: None
607
+ - `eval_use_gather_object`: False
608
+ - `average_tokens_across_devices`: True
609
+ - `prompts`: None
610
+ - `batch_sampler`: no_duplicates
611
+ - `multi_dataset_batch_sampler`: proportional
612
+ - `router_mapping`: {}
613
+ - `learning_rate_mapping`: {}
614
+
615
+ </details>
616
+
617
+ ### Training Logs
618
+ | Epoch | Step | Training Loss | dim_1024_cosine_ndcg@10 | dim_256_cosine_ndcg@10 |
619
+ |:----------:|:-------:|:-------------:|:-----------------------:|:----------------------:|
620
+ | -1 | -1 | - | 0.3765 | 0.3060 |
621
+ | 0.0345 | 10 | 3.2088 | - | - |
622
+ | 0.0691 | 20 | 2.879 | - | - |
623
+ | 0.1036 | 30 | 2.4085 | - | - |
624
+ | 0.1382 | 40 | 2.0405 | - | - |
625
+ | 0.1727 | 50 | 1.8785 | 0.4311 | 0.3651 |
626
+ | 0.2073 | 60 | 1.7366 | - | - |
627
+ | 0.2418 | 70 | 1.6183 | - | - |
628
+ | 0.2763 | 80 | 1.5751 | - | - |
629
+ | 0.3109 | 90 | 1.3818 | - | - |
630
+ | 0.3454 | 100 | 1.4648 | 0.4636 | 0.3970 |
631
+ | 0.3800 | 110 | 1.4749 | - | - |
632
+ | 0.4145 | 120 | 1.4677 | - | - |
633
+ | 0.4491 | 130 | 1.3521 | - | - |
634
+ | 0.4836 | 140 | 1.302 | - | - |
635
+ | 0.5181 | 150 | 1.3315 | 0.4675 | 0.4084 |
636
+ | 0.5527 | 160 | 1.3341 | - | - |
637
+ | 0.5872 | 170 | 1.3045 | - | - |
638
+ | 0.6218 | 180 | 1.3123 | - | - |
639
+ | 0.6563 | 190 | 1.2239 | - | - |
640
+ | 0.6908 | 200 | 1.2158 | 0.4755 | 0.4160 |
641
+ | 0.7254 | 210 | 1.286 | - | - |
642
+ | 0.7599 | 220 | 1.207 | - | - |
643
+ | 0.7945 | 230 | 1.1968 | - | - |
644
+ | 0.8290 | 240 | 1.2546 | - | - |
645
+ | 0.8636 | 250 | 1.1038 | 0.4827 | 0.4226 |
646
+ | 0.8981 | 260 | 1.1658 | - | - |
647
+ | 0.9326 | 270 | 1.1338 | - | - |
648
+ | 0.9672 | 280 | 1.0918 | - | - |
649
+ | 1.0 | 290 | 1.0354 | - | - |
650
+ | **1.0345** | **300** | **0.9816** | **0.4879** | **0.427** |
651
+ | 1.0691 | 310 | 0.9749 | - | - |
652
+ | 1.1036 | 320 | 0.9743 | - | - |
653
+ | 1.1382 | 330 | 0.905 | - | - |
654
+ | 1.1727 | 340 | 0.9706 | - | - |
655
+ | 1.2073 | 350 | 0.9017 | 0.4866 | 0.4252 |
656
+ | 1.2418 | 360 | 0.9318 | - | - |
657
+ | 1.2763 | 370 | 0.9577 | - | - |
658
+ | 1.3109 | 380 | 0.9529 | - | - |
659
+ | 1.3454 | 390 | 0.9866 | - | - |
660
+ | 1.3800 | 400 | 0.9696 | 0.4863 | 0.4243 |
661
+ | 1.4145 | 410 | 0.9322 | - | - |
662
+ | 1.4491 | 420 | 0.9313 | - | - |
663
+ | 1.4836 | 430 | 0.9352 | - | - |
664
+ | 1.5181 | 440 | 0.9885 | - | - |
665
+ | 1.5527 | 450 | 0.873 | 0.4864 | 0.4254 |
666
+ | 1.5872 | 460 | 0.9204 | - | - |
667
+ | 1.6218 | 470 | 0.9117 | - | - |
668
+ | 1.6563 | 480 | 0.8663 | - | - |
669
+ | 1.6908 | 490 | 0.9397 | - | - |
670
+ | 1.7254 | 500 | 0.8624 | 0.4873 | 0.4259 |
671
+ | 1.7599 | 510 | 0.91 | - | - |
672
+ | 1.7945 | 520 | 0.9202 | - | - |
673
+ | 1.8290 | 530 | 0.9903 | - | - |
674
+ | 1.8636 | 540 | 0.8564 | - | - |
675
+ | 1.8981 | 550 | 0.9594 | 0.4867 | 0.4253 |
676
+ | 1.9326 | 560 | 0.9858 | - | - |
677
+ | 1.9672 | 570 | 0.9477 | - | - |
678
+ | 2.0 | 580 | 0.9216 | - | - |
679
+
680
+ * The bold row denotes the saved checkpoint.
681
+
682
+ ### Framework Versions
683
+ - Python: 3.12.0
684
+ - Sentence Transformers: 5.1.2
685
+ - Transformers: 4.57.1
686
+ - PyTorch: 2.8.0+cu128
687
+ - Accelerate: 1.11.0
688
+ - Datasets: 4.4.1
689
+ - Tokenizers: 0.22.1
690
+
691
+ ## Citation
692
+
693
+ ### BibTeX
694
+
695
+ #### Sentence Transformers
696
+ ```bibtex
697
+ @inproceedings{reimers-2019-sentence-bert,
698
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
699
+ author = "Reimers, Nils and Gurevych, Iryna",
700
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
701
+ month = "11",
702
+ year = "2019",
703
+ publisher = "Association for Computational Linguistics",
704
+ url = "https://arxiv.org/abs/1908.10084",
705
+ }
706
+ ```
707
+
708
+ #### MatryoshkaLoss
709
+ ```bibtex
710
+ @misc{kusupati2024matryoshka,
711
+ title={Matryoshka Representation Learning},
712
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
713
+ year={2024},
714
+ eprint={2205.13147},
715
+ archivePrefix={arXiv},
716
+ primaryClass={cs.LG}
717
+ }
718
+ ```
719
+
720
+ #### MultipleNegativesRankingLoss
721
+ ```bibtex
722
+ @misc{henderson2017efficient,
723
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
724
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
725
+ year={2017},
726
+ eprint={1705.00652},
727
+ archivePrefix={arXiv},
728
+ primaryClass={cs.CL}
729
+ }
730
+ ```
731
+
732
+ <!--
733
+ ## Glossary
734
+
735
+ *Clearly define terms in order to be accessible across audiences.*
736
+ -->
737
+
738
+ <!--
739
+ ## Model Card Authors
740
+
741
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
742
+ -->
743
+
744
+ <!--
745
+ ## Model Card Contact
746
+
747
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
748
+ -->
added_tokens.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "</think>": 151668,
3
+ "</tool_call>": 151658,
4
+ "</tool_response>": 151666,
5
+ "<think>": 151667,
6
+ "<tool_call>": 151657,
7
+ "<tool_response>": 151665,
8
+ "<|box_end|>": 151649,
9
+ "<|box_start|>": 151648,
10
+ "<|endoftext|>": 151643,
11
+ "<|file_sep|>": 151664,
12
+ "<|fim_middle|>": 151660,
13
+ "<|fim_pad|>": 151662,
14
+ "<|fim_prefix|>": 151659,
15
+ "<|fim_suffix|>": 151661,
16
+ "<|im_end|>": 151645,
17
+ "<|im_start|>": 151644,
18
+ "<|image_pad|>": 151655,
19
+ "<|object_ref_end|>": 151647,
20
+ "<|object_ref_start|>": 151646,
21
+ "<|quad_end|>": 151651,
22
+ "<|quad_start|>": 151650,
23
+ "<|repo_name|>": 151663,
24
+ "<|video_pad|>": 151656,
25
+ "<|vision_end|>": 151653,
26
+ "<|vision_pad|>": 151654,
27
+ "<|vision_start|>": 151652
28
+ }
chat_template.jinja ADDED
@@ -0,0 +1,85 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {%- if tools %}
2
+ {{- '<|im_start|>system\n' }}
3
+ {%- if messages[0].role == 'system' %}
4
+ {{- messages[0].content + '\n\n' }}
5
+ {%- endif %}
6
+ {{- "# Tools\n\nYou may call one or more functions to assist with the user query.\n\nYou are provided with function signatures within <tools></tools> XML tags:\n<tools>" }}
7
+ {%- for tool in tools %}
8
+ {{- "\n" }}
9
+ {{- tool | tojson }}
10
+ {%- endfor %}
11
+ {{- "\n</tools>\n\nFor each function call, return a json object with function name and arguments within <tool_call></tool_call> XML tags:\n<tool_call>\n{\"name\": <function-name>, \"arguments\": <args-json-object>}\n</tool_call><|im_end|>\n" }}
12
+ {%- else %}
13
+ {%- if messages[0].role == 'system' %}
14
+ {{- '<|im_start|>system\n' + messages[0].content + '<|im_end|>\n' }}
15
+ {%- endif %}
16
+ {%- endif %}
17
+ {%- set ns = namespace(multi_step_tool=true, last_query_index=messages|length - 1) %}
18
+ {%- for message in messages[::-1] %}
19
+ {%- set index = (messages|length - 1) - loop.index0 %}
20
+ {%- if ns.multi_step_tool and message.role == "user" and not(message.content.startswith('<tool_response>') and message.content.endswith('</tool_response>')) %}
21
+ {%- set ns.multi_step_tool = false %}
22
+ {%- set ns.last_query_index = index %}
23
+ {%- endif %}
24
+ {%- endfor %}
25
+ {%- for message in messages %}
26
+ {%- if (message.role == "user") or (message.role == "system" and not loop.first) %}
27
+ {{- '<|im_start|>' + message.role + '\n' + message.content + '<|im_end|>' + '\n' }}
28
+ {%- elif message.role == "assistant" %}
29
+ {%- set content = message.content %}
30
+ {%- set reasoning_content = '' %}
31
+ {%- if message.reasoning_content is defined and message.reasoning_content is not none %}
32
+ {%- set reasoning_content = message.reasoning_content %}
33
+ {%- else %}
34
+ {%- if '</think>' in message.content %}
35
+ {%- set content = message.content.split('</think>')[-1].lstrip('\n') %}
36
+ {%- set reasoning_content = message.content.split('</think>')[0].rstrip('\n').split('<think>')[-1].lstrip('\n') %}
37
+ {%- endif %}
38
+ {%- endif %}
39
+ {%- if loop.index0 > ns.last_query_index %}
40
+ {%- if loop.last or (not loop.last and reasoning_content) %}
41
+ {{- '<|im_start|>' + message.role + '\n<think>\n' + reasoning_content.strip('\n') + '\n</think>\n\n' + content.lstrip('\n') }}
42
+ {%- else %}
43
+ {{- '<|im_start|>' + message.role + '\n' + content }}
44
+ {%- endif %}
45
+ {%- else %}
46
+ {{- '<|im_start|>' + message.role + '\n' + content }}
47
+ {%- endif %}
48
+ {%- if message.tool_calls %}
49
+ {%- for tool_call in message.tool_calls %}
50
+ {%- if (loop.first and content) or (not loop.first) %}
51
+ {{- '\n' }}
52
+ {%- endif %}
53
+ {%- if tool_call.function %}
54
+ {%- set tool_call = tool_call.function %}
55
+ {%- endif %}
56
+ {{- '<tool_call>\n{"name": "' }}
57
+ {{- tool_call.name }}
58
+ {{- '", "arguments": ' }}
59
+ {%- if tool_call.arguments is string %}
60
+ {{- tool_call.arguments }}
61
+ {%- else %}
62
+ {{- tool_call.arguments | tojson }}
63
+ {%- endif %}
64
+ {{- '}\n</tool_call>' }}
65
+ {%- endfor %}
66
+ {%- endif %}
67
+ {{- '<|im_end|>\n' }}
68
+ {%- elif message.role == "tool" %}
69
+ {%- if loop.first or (messages[loop.index0 - 1].role != "tool") %}
70
+ {{- '<|im_start|>user' }}
71
+ {%- endif %}
72
+ {{- '\n<tool_response>\n' }}
73
+ {{- message.content }}
74
+ {{- '\n</tool_response>' }}
75
+ {%- if loop.last or (messages[loop.index0 + 1].role != "tool") %}
76
+ {{- '<|im_end|>\n' }}
77
+ {%- endif %}
78
+ {%- endif %}
79
+ {%- endfor %}
80
+ {%- if add_generation_prompt %}
81
+ {{- '<|im_start|>assistant\n' }}
82
+ {%- if enable_thinking is defined and enable_thinking is false %}
83
+ {{- '<think>\n\n</think>\n\n' }}
84
+ {%- endif %}
85
+ {%- endif %}
config.json ADDED
@@ -0,0 +1,60 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "architectures": [
3
+ "Qwen3Model"
4
+ ],
5
+ "attention_bias": false,
6
+ "attention_dropout": 0.0,
7
+ "bos_token_id": 151643,
8
+ "dtype": "bfloat16",
9
+ "eos_token_id": 151643,
10
+ "head_dim": 128,
11
+ "hidden_act": "silu",
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_types": [
16
+ "full_attention",
17
+ "full_attention",
18
+ "full_attention",
19
+ "full_attention",
20
+ "full_attention",
21
+ "full_attention",
22
+ "full_attention",
23
+ "full_attention",
24
+ "full_attention",
25
+ "full_attention",
26
+ "full_attention",
27
+ "full_attention",
28
+ "full_attention",
29
+ "full_attention",
30
+ "full_attention",
31
+ "full_attention",
32
+ "full_attention",
33
+ "full_attention",
34
+ "full_attention",
35
+ "full_attention",
36
+ "full_attention",
37
+ "full_attention",
38
+ "full_attention",
39
+ "full_attention",
40
+ "full_attention",
41
+ "full_attention",
42
+ "full_attention",
43
+ "full_attention"
44
+ ],
45
+ "max_position_embeddings": 32768,
46
+ "max_window_layers": 28,
47
+ "model_type": "qwen3",
48
+ "num_attention_heads": 16,
49
+ "num_hidden_layers": 28,
50
+ "num_key_value_heads": 8,
51
+ "rms_norm_eps": 1e-06,
52
+ "rope_scaling": null,
53
+ "rope_theta": 1000000,
54
+ "sliding_window": null,
55
+ "tie_word_embeddings": true,
56
+ "transformers_version": "4.57.1",
57
+ "use_cache": true,
58
+ "use_sliding_window": false,
59
+ "vocab_size": 151669
60
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "prompts": {
3
+ "query": "Instruct: Given a web search query, retrieve relevant passages that answer the query\nQuery:",
4
+ "document": ""
5
+ },
6
+ "default_prompt_name": null,
7
+ "similarity_fn_name": "cosine",
8
+ "model_type": "SentenceTransformer",
9
+ "__version__": {
10
+ "sentence_transformers": "5.1.2",
11
+ "transformers": "4.57.1",
12
+ "pytorch": "2.8.0+cu128"
13
+ }
14
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:30dfca345b08a0baecf712fc079ad25c3cc5e19ca959a1d0315e1e8755efe0ed
3
+ size 1191586416
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 192,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "additional_special_tokens": [
3
+ "<|im_start|>",
4
+ "<|im_end|>",
5
+ "<|object_ref_start|>",
6
+ "<|object_ref_end|>",
7
+ "<|box_start|>",
8
+ "<|box_end|>",
9
+ "<|quad_start|>",
10
+ "<|quad_end|>",
11
+ "<|vision_start|>",
12
+ "<|vision_end|>",
13
+ "<|vision_pad|>",
14
+ "<|image_pad|>",
15
+ "<|video_pad|>"
16
+ ],
17
+ "eos_token": {
18
+ "content": "<|im_end|>",
19
+ "lstrip": false,
20
+ "normalized": false,
21
+ "rstrip": false,
22
+ "single_word": false
23
+ },
24
+ "pad_token": {
25
+ "content": "<|endoftext|>",
26
+ "lstrip": false,
27
+ "normalized": false,
28
+ "rstrip": false,
29
+ "single_word": false
30
+ }
31
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5fdeb53f7184a683a77cdd86f31415be50aa95894c2d24072089572248abefe6
3
+ size 11423971
tokenizer_config.json ADDED
@@ -0,0 +1,239 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_bos_token": false,
3
+ "add_prefix_space": false,
4
+ "added_tokens_decoder": {
5
+ "151643": {
6
+ "content": "<|endoftext|>",
7
+ "lstrip": false,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false,
11
+ "special": true
12
+ },
13
+ "151644": {
14
+ "content": "<|im_start|>",
15
+ "lstrip": false,
16
+ "normalized": false,
17
+ "rstrip": false,
18
+ "single_word": false,
19
+ "special": true
20
+ },
21
+ "151645": {
22
+ "content": "<|im_end|>",
23
+ "lstrip": false,
24
+ "normalized": false,
25
+ "rstrip": false,
26
+ "single_word": false,
27
+ "special": true
28
+ },
29
+ "151646": {
30
+ "content": "<|object_ref_start|>",
31
+ "lstrip": false,
32
+ "normalized": false,
33
+ "rstrip": false,
34
+ "single_word": false,
35
+ "special": true
36
+ },
37
+ "151647": {
38
+ "content": "<|object_ref_end|>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false,
43
+ "special": true
44
+ },
45
+ "151648": {
46
+ "content": "<|box_start|>",
47
+ "lstrip": false,
48
+ "normalized": false,
49
+ "rstrip": false,
50
+ "single_word": false,
51
+ "special": true
52
+ },
53
+ "151649": {
54
+ "content": "<|box_end|>",
55
+ "lstrip": false,
56
+ "normalized": false,
57
+ "rstrip": false,
58
+ "single_word": false,
59
+ "special": true
60
+ },
61
+ "151650": {
62
+ "content": "<|quad_start|>",
63
+ "lstrip": false,
64
+ "normalized": false,
65
+ "rstrip": false,
66
+ "single_word": false,
67
+ "special": true
68
+ },
69
+ "151651": {
70
+ "content": "<|quad_end|>",
71
+ "lstrip": false,
72
+ "normalized": false,
73
+ "rstrip": false,
74
+ "single_word": false,
75
+ "special": true
76
+ },
77
+ "151652": {
78
+ "content": "<|vision_start|>",
79
+ "lstrip": false,
80
+ "normalized": false,
81
+ "rstrip": false,
82
+ "single_word": false,
83
+ "special": true
84
+ },
85
+ "151653": {
86
+ "content": "<|vision_end|>",
87
+ "lstrip": false,
88
+ "normalized": false,
89
+ "rstrip": false,
90
+ "single_word": false,
91
+ "special": true
92
+ },
93
+ "151654": {
94
+ "content": "<|vision_pad|>",
95
+ "lstrip": false,
96
+ "normalized": false,
97
+ "rstrip": false,
98
+ "single_word": false,
99
+ "special": true
100
+ },
101
+ "151655": {
102
+ "content": "<|image_pad|>",
103
+ "lstrip": false,
104
+ "normalized": false,
105
+ "rstrip": false,
106
+ "single_word": false,
107
+ "special": true
108
+ },
109
+ "151656": {
110
+ "content": "<|video_pad|>",
111
+ "lstrip": false,
112
+ "normalized": false,
113
+ "rstrip": false,
114
+ "single_word": false,
115
+ "special": true
116
+ },
117
+ "151657": {
118
+ "content": "<tool_call>",
119
+ "lstrip": false,
120
+ "normalized": false,
121
+ "rstrip": false,
122
+ "single_word": false,
123
+ "special": false
124
+ },
125
+ "151658": {
126
+ "content": "</tool_call>",
127
+ "lstrip": false,
128
+ "normalized": false,
129
+ "rstrip": false,
130
+ "single_word": false,
131
+ "special": false
132
+ },
133
+ "151659": {
134
+ "content": "<|fim_prefix|>",
135
+ "lstrip": false,
136
+ "normalized": false,
137
+ "rstrip": false,
138
+ "single_word": false,
139
+ "special": false
140
+ },
141
+ "151660": {
142
+ "content": "<|fim_middle|>",
143
+ "lstrip": false,
144
+ "normalized": false,
145
+ "rstrip": false,
146
+ "single_word": false,
147
+ "special": false
148
+ },
149
+ "151661": {
150
+ "content": "<|fim_suffix|>",
151
+ "lstrip": false,
152
+ "normalized": false,
153
+ "rstrip": false,
154
+ "single_word": false,
155
+ "special": false
156
+ },
157
+ "151662": {
158
+ "content": "<|fim_pad|>",
159
+ "lstrip": false,
160
+ "normalized": false,
161
+ "rstrip": false,
162
+ "single_word": false,
163
+ "special": false
164
+ },
165
+ "151663": {
166
+ "content": "<|repo_name|>",
167
+ "lstrip": false,
168
+ "normalized": false,
169
+ "rstrip": false,
170
+ "single_word": false,
171
+ "special": false
172
+ },
173
+ "151664": {
174
+ "content": "<|file_sep|>",
175
+ "lstrip": false,
176
+ "normalized": false,
177
+ "rstrip": false,
178
+ "single_word": false,
179
+ "special": false
180
+ },
181
+ "151665": {
182
+ "content": "<tool_response>",
183
+ "lstrip": false,
184
+ "normalized": false,
185
+ "rstrip": false,
186
+ "single_word": false,
187
+ "special": false
188
+ },
189
+ "151666": {
190
+ "content": "</tool_response>",
191
+ "lstrip": false,
192
+ "normalized": false,
193
+ "rstrip": false,
194
+ "single_word": false,
195
+ "special": false
196
+ },
197
+ "151667": {
198
+ "content": "<think>",
199
+ "lstrip": false,
200
+ "normalized": false,
201
+ "rstrip": false,
202
+ "single_word": false,
203
+ "special": false
204
+ },
205
+ "151668": {
206
+ "content": "</think>",
207
+ "lstrip": false,
208
+ "normalized": false,
209
+ "rstrip": false,
210
+ "single_word": false,
211
+ "special": false
212
+ }
213
+ },
214
+ "additional_special_tokens": [
215
+ "<|im_start|>",
216
+ "<|im_end|>",
217
+ "<|object_ref_start|>",
218
+ "<|object_ref_end|>",
219
+ "<|box_start|>",
220
+ "<|box_end|>",
221
+ "<|quad_start|>",
222
+ "<|quad_end|>",
223
+ "<|vision_start|>",
224
+ "<|vision_end|>",
225
+ "<|vision_pad|>",
226
+ "<|image_pad|>",
227
+ "<|video_pad|>"
228
+ ],
229
+ "bos_token": null,
230
+ "clean_up_tokenization_spaces": false,
231
+ "eos_token": "<|im_end|>",
232
+ "errors": "replace",
233
+ "extra_special_tokens": {},
234
+ "model_max_length": 131072,
235
+ "pad_token": "<|endoftext|>",
236
+ "split_special_tokens": false,
237
+ "tokenizer_class": "Qwen2Tokenizer",
238
+ "unk_token": null
239
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff