--- language: - fr license: apache-2.0 tags: - sentence-transformers - sparse-encoder - sparse - splade - generated_from_trainer - dataset_size:483497 - loss:SpladeLoss - loss:SparseMarginMSELoss - loss:FlopsLoss base_model: almanach/camembert-base widget: - text: lequel des muscles abdominaux est le plus superficiel - text: les systèmes pos ont-ils besoin d'internet - text: L'indice de stress météorologique, ou WSI, est une mesure relative des conditions météorologiques, souvent utilisée comme indicateur de confort. L'indice, un nombre compris entre 0 et 100, représente le pourcentage de temps passé avec des températures inférieures à la température actuelle, pour un lieu, un jour et une heure donnés. - text: comment rendre les planchers de sous-sol lisses - text: De quelle couleur est le sang. Le sang veineux (sauf dans les veines pulmonaires) est pauvre en oxygène, de sorte que l'hémoglobine donne au sang une couleur rouge foncé. Une fois que le sang a traversé les lits capillaires des poumons, le sang sera rouge vif avec l'hémoglobine saturée d'oxygène gazeux. datasets: - arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french pipeline_tag: feature-extraction library_name: sentence-transformers metrics: - dot_accuracy@1 - dot_accuracy@3 - dot_accuracy@5 - dot_accuracy@10 - dot_precision@1 - dot_precision@3 - dot_precision@5 - dot_precision@10 - dot_recall@1 - dot_recall@3 - dot_recall@5 - dot_recall@10 - dot_ndcg@10 - dot_mrr@10 - dot_map@100 - query_active_dims - query_sparsity_ratio - corpus_active_dims - corpus_sparsity_ratio - pearson_cosine - spearman_cosine - active_dims - sparsity_ratio model-index: - name: splade-camembert-base-v2 results: - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchMSMARCO type: NanoFrenchMSMARCO metrics: - type: dot_accuracy@1 value: 0.36 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.56 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.64 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.82 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.36 name: Dot Precision@1 - type: dot_precision@3 value: 0.18666666666666668 name: Dot Precision@3 - type: dot_precision@5 value: 0.128 name: Dot Precision@5 - type: dot_precision@10 value: 0.08199999999999999 name: Dot Precision@10 - type: dot_recall@1 value: 0.36 name: Dot Recall@1 - type: dot_recall@3 value: 0.56 name: Dot Recall@3 - type: dot_recall@5 value: 0.64 name: Dot Recall@5 - type: dot_recall@10 value: 0.82 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5672503034893386 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.48932539682539683 name: Dot Mrr@10 - type: dot_map@100 value: 0.4964516557112465 name: Dot Map@100 - type: query_active_dims value: 97.19999694824219 name: Query Active Dims - type: query_sparsity_ratio value: 0.9969629746305814 name: Query Sparsity Ratio - type: corpus_active_dims value: 320.9422912597656 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9899721202543427 name: Corpus Sparsity Ratio - type: dot_accuracy@1 value: 0.38 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.58 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.68 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.8 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.38 name: Dot Precision@1 - type: dot_precision@3 value: 0.19333333333333333 name: Dot Precision@3 - type: dot_precision@5 value: 0.136 name: Dot Precision@5 - type: dot_precision@10 value: 0.08 name: Dot Precision@10 - type: dot_recall@1 value: 0.38 name: Dot Recall@1 - type: dot_recall@3 value: 0.58 name: Dot Recall@3 - type: dot_recall@5 value: 0.68 name: Dot Recall@5 - type: dot_recall@10 value: 0.8 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.57316494185967 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.5022619047619048 name: Dot Mrr@10 - type: dot_map@100 value: 0.5113980065685948 name: Dot Map@100 - type: query_active_dims value: 93.54000091552734 name: Query Active Dims - type: query_sparsity_ratio value: 0.9970773316383212 name: Query Sparsity Ratio - type: corpus_active_dims value: 340.59747314453125 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9893579917780181 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchNFCorpus type: NanoFrenchNFCorpus metrics: - type: dot_accuracy@1 value: 0.38 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.54 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.56 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.62 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.38 name: Dot Precision@1 - type: dot_precision@3 value: 0.33333333333333326 name: Dot Precision@3 - type: dot_precision@5 value: 0.31200000000000006 name: Dot Precision@5 - type: dot_precision@10 value: 0.27 name: Dot Precision@10 - type: dot_recall@1 value: 0.024565149084599936 name: Dot Recall@1 - type: dot_recall@3 value: 0.048429838495373294 name: Dot Recall@3 - type: dot_recall@5 value: 0.07398906948015295 name: Dot Recall@5 - type: dot_recall@10 value: 0.1386804380914821 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.3125775453054018 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.46341269841269833 name: Dot Mrr@10 - type: dot_map@100 value: 0.12624373866292496 name: Dot Map@100 - type: query_active_dims value: 107.4000015258789 name: Query Active Dims - type: query_sparsity_ratio value: 0.9966442742844593 name: Query Sparsity Ratio - type: corpus_active_dims value: 411.68572998046875 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9871368308082965 name: Corpus Sparsity Ratio - type: dot_accuracy@1 value: 0.42 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.5 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.56 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.64 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.42 name: Dot Precision@1 - type: dot_precision@3 value: 0.3133333333333333 name: Dot Precision@3 - type: dot_precision@5 value: 0.29600000000000004 name: Dot Precision@5 - type: dot_precision@10 value: 0.27399999999999997 name: Dot Precision@10 - type: dot_recall@1 value: 0.025143380377116945 name: Dot Recall@1 - type: dot_recall@3 value: 0.054455110237352056 name: Dot Recall@3 - type: dot_recall@5 value: 0.09253685233430252 name: Dot Recall@5 - type: dot_recall@10 value: 0.12288711045433186 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.3151161614045225 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.4813015873015873 name: Dot Mrr@10 - type: dot_map@100 value: 0.12802106820878023 name: Dot Map@100 - type: query_active_dims value: 103.80000305175781 name: Query Active Dims - type: query_sparsity_ratio value: 0.9967567566614042 name: Query Sparsity Ratio - type: corpus_active_dims value: 441.6481628417969 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9862006510594659 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchNQ type: NanoFrenchNQ metrics: - type: dot_accuracy@1 value: 0.32 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.64 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.66 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.76 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.32 name: Dot Precision@1 - type: dot_precision@3 value: 0.21333333333333332 name: Dot Precision@3 - type: dot_precision@5 value: 0.14400000000000002 name: Dot Precision@5 - type: dot_precision@10 value: 0.08199999999999999 name: Dot Precision@10 - type: dot_recall@1 value: 0.31 name: Dot Recall@1 - type: dot_recall@3 value: 0.6 name: Dot Recall@3 - type: dot_recall@5 value: 0.65 name: Dot Recall@5 - type: dot_recall@10 value: 0.74 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5328359660527703 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.4699126984126984 name: Dot Mrr@10 - type: dot_map@100 value: 0.46572477868807666 name: Dot Map@100 - type: query_active_dims value: 111.55999755859375 name: Query Active Dims - type: query_sparsity_ratio value: 0.9965142947177443 name: Query Sparsity Ratio - type: corpus_active_dims value: 475.15411376953125 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9851537536706911 name: Corpus Sparsity Ratio - type: dot_accuracy@1 value: 0.3 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.64 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.7 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.76 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.3 name: Dot Precision@1 - type: dot_precision@3 value: 0.21333333333333332 name: Dot Precision@3 - type: dot_precision@5 value: 0.15200000000000002 name: Dot Precision@5 - type: dot_precision@10 value: 0.08199999999999999 name: Dot Precision@10 - type: dot_recall@1 value: 0.29 name: Dot Recall@1 - type: dot_recall@3 value: 0.6 name: Dot Recall@3 - type: dot_recall@5 value: 0.69 name: Dot Recall@5 - type: dot_recall@10 value: 0.74 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5375748474117438 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.47516666666666657 name: Dot Mrr@10 - type: dot_map@100 value: 0.4707188202009631 name: Dot Map@100 - type: query_active_dims value: 110.27999877929688 name: Query Active Dims - type: query_sparsity_ratio value: 0.9965542884305797 name: Query Sparsity Ratio - type: corpus_active_dims value: 506.67071533203125 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9841690137374776 name: Corpus Sparsity Ratio - task: type: sparse-nano-beir name: Sparse Nano BEIR dataset: name: FrenchNanoBEIR mean type: FrenchNanoBEIR_mean metrics: - type: dot_accuracy@1 value: 0.35333333333333333 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.5800000000000001 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.6200000000000001 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.7333333333333334 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.35333333333333333 name: Dot Precision@1 - type: dot_precision@3 value: 0.24444444444444438 name: Dot Precision@3 - type: dot_precision@5 value: 0.19466666666666668 name: Dot Precision@5 - type: dot_precision@10 value: 0.14466666666666664 name: Dot Precision@10 - type: dot_recall@1 value: 0.2315217163615333 name: Dot Recall@1 - type: dot_recall@3 value: 0.40280994616512444 name: Dot Recall@3 - type: dot_recall@5 value: 0.45466302316005097 name: Dot Recall@5 - type: dot_recall@10 value: 0.5662268126971607 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.4708879382825035 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.47421693121693115 name: Dot Mrr@10 - type: dot_map@100 value: 0.3628067243540827 name: Dot Map@100 - type: query_active_dims value: 105.38666534423828 name: Query Active Dims - type: query_sparsity_ratio value: 0.9967071812109284 name: Query Sparsity Ratio - type: corpus_active_dims value: 401.09131289117585 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9874678546198664 name: Corpus Sparsity Ratio - type: dot_accuracy@1 value: 0.49648351648351646 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.6690423861852433 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.7583987441130299 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.8260910518053375 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.49648351648351646 name: Dot Precision@1 - type: dot_precision@3 value: 0.31164835164835164 name: Dot Precision@3 - type: dot_precision@5 value: 0.25071271585557303 name: Dot Precision@5 - type: dot_precision@10 value: 0.1776452119309262 name: Dot Precision@10 - type: dot_recall@1 value: 0.2775106435854442 name: Dot Recall@1 - type: dot_recall@3 value: 0.437530782043344 name: Dot Recall@3 - type: dot_recall@5 value: 0.5214228074903354 name: Dot Recall@5 - type: dot_recall@10 value: 0.5960608203941352 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5462725147946055 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.6034051979766266 name: Dot Mrr@10 - type: dot_map@100 value: 0.463521095059661 name: Dot Map@100 - type: query_active_dims value: 183.74730585977 name: Query Active Dims - type: query_sparsity_ratio value: 0.994258793755358 name: Query Sparsity Ratio - type: corpus_active_dims value: 435.1348356166257 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9864041607368653 name: Corpus Sparsity Ratio - task: type: semantic-similarity name: Semantic Similarity dataset: name: frenchSTS dev type: frenchSTS-dev metrics: - type: pearson_cosine value: 0.7288033933783795 name: Pearson Cosine - type: spearman_cosine value: 0.6906760527205718 name: Spearman Cosine - type: active_dims value: 163.7789306640625 name: Active Dims - type: sparsity_ratio value: 0.994882707993624 name: Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchClimateFEVER type: NanoFrenchClimateFEVER metrics: - type: dot_accuracy@1 value: 0.18 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.36 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.5 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.6 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.18 name: Dot Precision@1 - type: dot_precision@3 value: 0.12666666666666665 name: Dot Precision@3 - type: dot_precision@5 value: 0.10800000000000001 name: Dot Precision@5 - type: dot_precision@10 value: 0.076 name: Dot Precision@10 - type: dot_recall@1 value: 0.075 name: Dot Recall@1 - type: dot_recall@3 value: 0.15733333333333333 name: Dot Recall@3 - type: dot_recall@5 value: 0.22966666666666669 name: Dot Recall@5 - type: dot_recall@10 value: 0.31133333333333335 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.22526332464375717 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.2981904761904762 name: Dot Mrr@10 - type: dot_map@100 value: 0.16918567447635577 name: Dot Map@100 - type: query_active_dims value: 299.0 name: Query Active Dims - type: query_sparsity_ratio value: 0.9906577097328543 name: Query Sparsity Ratio - type: corpus_active_dims value: 427.4809265136719 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9866433080295681 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchDBPedia type: NanoFrenchDBPedia metrics: - type: dot_accuracy@1 value: 0.68 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.86 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.92 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.94 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.68 name: Dot Precision@1 - type: dot_precision@3 value: 0.5800000000000001 name: Dot Precision@3 - type: dot_precision@5 value: 0.536 name: Dot Precision@5 - type: dot_precision@10 value: 0.484 name: Dot Precision@10 - type: dot_recall@1 value: 0.05824354525741762 name: Dot Recall@1 - type: dot_recall@3 value: 0.16112675620793346 name: Dot Recall@3 - type: dot_recall@5 value: 0.20990640365085567 name: Dot Recall@5 - type: dot_recall@10 value: 0.33848138160777524 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5830264831939957 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.7801904761904762 name: Dot Mrr@10 - type: dot_map@100 value: 0.43519800452823887 name: Dot Map@100 - type: query_active_dims value: 107.30000305175781 name: Query Active Dims - type: query_sparsity_ratio value: 0.9966473987485781 name: Query Sparsity Ratio - type: corpus_active_dims value: 486.1007385253906 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9848117250890364 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchFEVER type: NanoFrenchFEVER metrics: - type: dot_accuracy@1 value: 0.7 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.8 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.92 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.98 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.7 name: Dot Precision@1 - type: dot_precision@3 value: 0.2866666666666666 name: Dot Precision@3 - type: dot_precision@5 value: 0.19599999999999998 name: Dot Precision@5 - type: dot_precision@10 value: 0.10399999999999998 name: Dot Precision@10 - type: dot_recall@1 value: 0.66 name: Dot Recall@1 - type: dot_recall@3 value: 0.7733333333333333 name: Dot Recall@3 - type: dot_recall@5 value: 0.8833333333333333 name: Dot Recall@5 - type: dot_recall@10 value: 0.9433333333333332 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.8064811061401568 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.7833571428571431 name: Dot Mrr@10 - type: dot_map@100 value: 0.7547637721755369 name: Dot Map@100 - type: query_active_dims value: 257.9800109863281 name: Query Active Dims - type: query_sparsity_ratio value: 0.9919393841279073 name: Query Sparsity Ratio - type: corpus_active_dims value: 648.0828857421875 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9797505737934015 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchFiQA2018 type: NanoFrenchFiQA2018 metrics: - type: dot_accuracy@1 value: 0.44 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.54 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.64 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.74 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.44 name: Dot Precision@1 - type: dot_precision@3 value: 0.26 name: Dot Precision@3 - type: dot_precision@5 value: 0.196 name: Dot Precision@5 - type: dot_precision@10 value: 0.12399999999999999 name: Dot Precision@10 - type: dot_recall@1 value: 0.23941269841269844 name: Dot Recall@1 - type: dot_recall@3 value: 0.38634920634920633 name: Dot Recall@3 - type: dot_recall@5 value: 0.4780634920634921 name: Dot Recall@5 - type: dot_recall@10 value: 0.5748968253968255 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.47523676082303196 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.5264126984126984 name: Dot Mrr@10 - type: dot_map@100 value: 0.4049263221001773 name: Dot Map@100 - type: query_active_dims value: 105.19999694824219 name: Query Active Dims - type: query_sparsity_ratio value: 0.9967130136869788 name: Query Sparsity Ratio - type: corpus_active_dims value: 393.1255798339844 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.987716744888799 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchHotpotQA type: NanoFrenchHotpotQA metrics: - type: dot_accuracy@1 value: 0.8 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.88 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.94 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.98 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.8 name: Dot Precision@1 - type: dot_precision@3 value: 0.44666666666666655 name: Dot Precision@3 - type: dot_precision@5 value: 0.29999999999999993 name: Dot Precision@5 - type: dot_precision@10 value: 0.15599999999999997 name: Dot Precision@10 - type: dot_recall@1 value: 0.4 name: Dot Recall@1 - type: dot_recall@3 value: 0.67 name: Dot Recall@3 - type: dot_recall@5 value: 0.75 name: Dot Recall@5 - type: dot_recall@10 value: 0.78 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.7469493660905022 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.8556666666666666 name: Dot Mrr@10 - type: dot_map@100 value: 0.68936235875885 name: Dot Map@100 - type: query_active_dims value: 192.63999938964844 name: Query Active Dims - type: query_sparsity_ratio value: 0.9939809404971208 name: Query Sparsity Ratio - type: corpus_active_dims value: 552.5831298828125 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9827344749294543 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchQuoraRetrieval type: NanoFrenchQuoraRetrieval metrics: - type: dot_accuracy@1 value: 0.76 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.88 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.98 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.98 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.76 name: Dot Precision@1 - type: dot_precision@3 value: 0.3533333333333333 name: Dot Precision@3 - type: dot_precision@5 value: 0.23599999999999993 name: Dot Precision@5 - type: dot_precision@10 value: 0.12599999999999997 name: Dot Precision@10 - type: dot_recall@1 value: 0.674 name: Dot Recall@1 - type: dot_recall@3 value: 0.8413333333333333 name: Dot Recall@3 - type: dot_recall@5 value: 0.9346666666666666 name: Dot Recall@5 - type: dot_recall@10 value: 0.9553333333333334 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.8580920235720106 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.8406666666666668 name: Dot Mrr@10 - type: dot_map@100 value: 0.8190792669432204 name: Dot Map@100 - type: query_active_dims value: 107.86000061035156 name: Query Active Dims - type: query_sparsity_ratio value: 0.9966299015588079 name: Query Sparsity Ratio - type: corpus_active_dims value: 104.7621841430664 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9967266931997167 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchSCIDOCS type: NanoFrenchSCIDOCS metrics: - type: dot_accuracy@1 value: 0.38 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.6 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.66 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.82 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.38 name: Dot Precision@1 - type: dot_precision@3 value: 0.29333333333333333 name: Dot Precision@3 - type: dot_precision@5 value: 0.24 name: Dot Precision@5 - type: dot_precision@10 value: 0.17 name: Dot Precision@10 - type: dot_recall@1 value: 0.07866666666666668 name: Dot Recall@1 - type: dot_recall@3 value: 0.18066666666666667 name: Dot Recall@3 - type: dot_recall@5 value: 0.24566666666666667 name: Dot Recall@5 - type: dot_recall@10 value: 0.34766666666666673 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.3312292792966583 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.513968253968254 name: Dot Mrr@10 - type: dot_map@100 value: 0.2513428631021372 name: Dot Map@100 - type: query_active_dims value: 151.72000122070312 name: Query Active Dims - type: query_sparsity_ratio value: 0.9952594906664364 name: Query Sparsity Ratio - type: corpus_active_dims value: 413.0921630859375 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9870928866400269 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchArguAna type: NanoFrenchArguAna metrics: - type: dot_accuracy@1 value: 0.1 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.4 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.56 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.68 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.1 name: Dot Precision@1 - type: dot_precision@3 value: 0.13333333333333333 name: Dot Precision@3 - type: dot_precision@5 value: 0.11200000000000003 name: Dot Precision@5 - type: dot_precision@10 value: 0.068 name: Dot Precision@10 - type: dot_recall@1 value: 0.1 name: Dot Recall@1 - type: dot_recall@3 value: 0.4 name: Dot Recall@3 - type: dot_recall@5 value: 0.56 name: Dot Recall@5 - type: dot_recall@10 value: 0.68 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.3878020730431033 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.2942619047619047 name: Dot Mrr@10 - type: dot_map@100 value: 0.30642444584641493 name: Dot Map@100 - type: query_active_dims value: 528.760009765625 name: Query Active Dims - type: query_sparsity_ratio value: 0.9834788311274606 name: Query Sparsity Ratio - type: corpus_active_dims value: 484.57635498046875 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.984859354632699 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchSciFact type: NanoFrenchSciFact metrics: - type: dot_accuracy@1 value: 0.6 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.78 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.84 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.86 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.6 name: Dot Precision@1 - type: dot_precision@3 value: 0.28 name: Dot Precision@3 - type: dot_precision@5 value: 0.18799999999999997 name: Dot Precision@5 - type: dot_precision@10 value: 0.09599999999999997 name: Dot Precision@10 - type: dot_recall@1 value: 0.575 name: Dot Recall@1 - type: dot_recall@3 value: 0.765 name: Dot Recall@3 - type: dot_recall@5 value: 0.83 name: Dot Recall@5 - type: dot_recall@10 value: 0.85 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.731195750403338 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.6945238095238095 name: Dot Mrr@10 - type: dot_map@100 value: 0.6913556573450191 name: Dot Map@100 - type: query_active_dims value: 231.9600067138672 name: Query Active Dims - type: query_sparsity_ratio value: 0.9927523822304681 name: Query Sparsity Ratio - type: corpus_active_dims value: 441.13531494140625 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.9862166750526041 name: Corpus Sparsity Ratio - task: type: sparse-information-retrieval name: Sparse Information Retrieval dataset: name: NanoFrenchTouche2020 type: NanoFrenchTouche2020 metrics: - type: dot_accuracy@1 value: 0.7142857142857143 name: Dot Accuracy@1 - type: dot_accuracy@3 value: 0.8775510204081632 name: Dot Accuracy@3 - type: dot_accuracy@5 value: 0.9591836734693877 name: Dot Accuracy@5 - type: dot_accuracy@10 value: 0.9591836734693877 name: Dot Accuracy@10 - type: dot_precision@1 value: 0.7142857142857143 name: Dot Precision@1 - type: dot_precision@3 value: 0.5714285714285715 name: Dot Precision@3 - type: dot_precision@5 value: 0.563265306122449 name: Dot Precision@5 - type: dot_precision@10 value: 0.46938775510204084 name: Dot Precision@10 - type: dot_recall@1 value: 0.05217207589687473 name: Dot Recall@1 - type: dot_recall@3 value: 0.11830242710231433 name: Dot Recall@3 - type: dot_recall@5 value: 0.19465641599237601 name: Dot Recall@5 - type: dot_recall@10 value: 0.3048586809981585 name: Dot Recall@10 - type: dot_ndcg@10 value: 0.5304105744473808 name: Dot Ndcg@10 - type: dot_mrr@10 value: 0.7982993197278911 name: Dot Mrr@10 - type: dot_map@100 value: 0.39399797552130406 name: Dot Map@100 - type: query_active_dims value: 96.93877410888672 name: Query Active Dims - type: query_sparsity_ratio value: 0.9969711365690084 name: Query Sparsity Ratio - type: corpus_active_dims value: 410.17596435546875 name: Corpus Active Dims - type: corpus_sparsity_ratio value: 0.987184003613327 name: Corpus Sparsity Ratio --- # splade-camembert-base-v2 This is a [SPLADE Sparse Encoder](https://www.sbert.net/docs/sparse_encoder/usage/usage.html) model finetuned from [almanach/camembert-base](https://huggingface.co/almanach/camembert-base) on the [msmarco-qwen3-reranker-0.6_b-french](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french) dataset using the [sentence-transformers](https://www.SBERT.net) library. It maps sentences & paragraphs to a 32005-dimensional sparse vector space and can be used for semantic search and sparse retrieval. ## Model Details ### Model Description - **Model Type:** SPLADE Sparse Encoder - **Base model:** [almanach/camembert-base](https://huggingface.co/almanach/camembert-base) - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 32005 dimensions - **Similarity Function:** Dot Product - **Training Dataset:** - [msmarco-qwen3-reranker-0.6_b-french](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french) - **Language:** fr - **License:** apache-2.0 ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Documentation:** [Sparse Encoder Documentation](https://www.sbert.net/docs/sparse_encoder/usage/usage.html) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sparse Encoders on Hugging Face](https://huggingface.co/models?library=sentence-transformers&other=sparse-encoder) ### Full Model Architecture ``` SparseEncoder( (0): MLMTransformer({'max_seq_length': 512, 'do_lower_case': False, 'architecture': 'CamembertForMaskedLM'}) (1): SpladePooling({'pooling_strategy': 'max', 'activation_function': 'relu', 'word_embedding_dimension': 32005}) ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SparseEncoder # Download from the 🤗 Hub model = SparseEncoder("arthurbresnu/splade-camembert-base-v2") # Run inference queries = [ "quel poison rend le sang rouge vif ?", ] documents = [ "La décoloration rouge cerise de la peau et des muqueuses est un signe souvent cité d'intoxication au monoxyde de carbone (CO)x1Les dangers du monoxyde de carbone. N Engl J Med. 1995\xa0; 332\xa0:\xa0894.", "SDStaff Hawk répond : Le sang est d'un rouge vif sous sa forme oxygénée (c'est-à-dire quittant les poumons), lorsque l'hémoglobine est liée à l'oxygène pour former l'oxyhémoglobine. C'est un rouge foncé sous sa forme désoxygénée (c'est-à-dire qui retourne aux poumons), lorsque l'hémoglobine est liée au dioxyde de carbone pour former la carboxyhémoglobine. Les veines apparaissent bleues parce que la lumière, pénétrant la peau, est absorbée et réfléchie vers l'œil. Étant donné que seules les longueurs d'onde d'énergie plus élevée peuvent le faire (les longueurs d'onde d'énergie plus faible n'ont tout simplement pas le *oomph*), seules les longueurs d'onde d'énergie plus élevées sont vues.", 'Les couleurs vives et accrocheuses de la grenouille venimeuse – les nuances de bleu, rouge, orange, jaune, vert et noir – sont également une forme de protection.', ] query_embeddings = model.encode_query(queries) document_embeddings = model.encode_document(documents) print(query_embeddings.shape, document_embeddings.shape) # [1, 32005] [3, 32005] # Get the similarity scores for the embeddings similarities = model.similarity(query_embeddings, document_embeddings) print(similarities) # tensor([[ 6.2209, 10.4989, 6.2333]]) ``` ## Evaluation ### Metrics #### Sparse Information Retrieval * Datasets: `NanoFrenchMSMARCO`, `NanoFrenchNFCorpus`, `NanoFrenchNQ`, `NanoFrenchClimateFEVER`, `NanoFrenchDBPedia`, `NanoFrenchFEVER`, `NanoFrenchFiQA2018`, `NanoFrenchHotpotQA`, `NanoFrenchMSMARCO`, `NanoFrenchNFCorpus`, `NanoFrenchNQ`, `NanoFrenchQuoraRetrieval`, `NanoFrenchSCIDOCS`, `NanoFrenchArguAna`, `NanoFrenchSciFact` and `NanoFrenchTouche2020` from [this collection](https://huggingface.co/collections/CATIE-AQ/nanobeir-fr) * Evaluated with [SparseInformationRetrievalEvaluator](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseInformationRetrievalEvaluator) | Metric | NanoFrenchMSMARCO | NanoFrenchNFCorpus | NanoFrenchNQ | NanoFrenchClimateFEVER | NanoFrenchDBPedia | NanoFrenchFEVER | NanoFrenchFiQA2018 | NanoFrenchHotpotQA | NanoFrenchQuoraRetrieval | NanoFrenchSCIDOCS | NanoFrenchArguAna | NanoFrenchSciFact | NanoFrenchTouche2020 | |:----------------------|:------------------|:-------------------|:-------------|:-----------------------|:------------------|:----------------|:-------------------|:-------------------|:-------------------------|:------------------|:------------------|:------------------|:---------------------| | dot_accuracy@1 | 0.38 | 0.42 | 0.3 | 0.18 | 0.68 | 0.7 | 0.44 | 0.8 | 0.76 | 0.38 | 0.1 | 0.6 | 0.7143 | | dot_accuracy@3 | 0.58 | 0.5 | 0.64 | 0.36 | 0.86 | 0.8 | 0.54 | 0.88 | 0.88 | 0.6 | 0.4 | 0.78 | 0.8776 | | dot_accuracy@5 | 0.68 | 0.56 | 0.7 | 0.5 | 0.92 | 0.92 | 0.64 | 0.94 | 0.98 | 0.66 | 0.56 | 0.84 | 0.9592 | | dot_accuracy@10 | 0.8 | 0.64 | 0.76 | 0.6 | 0.94 | 0.98 | 0.74 | 0.98 | 0.98 | 0.82 | 0.68 | 0.86 | 0.9592 | | dot_precision@1 | 0.38 | 0.42 | 0.3 | 0.18 | 0.68 | 0.7 | 0.44 | 0.8 | 0.76 | 0.38 | 0.1 | 0.6 | 0.7143 | | dot_precision@3 | 0.1933 | 0.3133 | 0.2133 | 0.1267 | 0.58 | 0.2867 | 0.26 | 0.4467 | 0.3533 | 0.2933 | 0.1333 | 0.28 | 0.5714 | | dot_precision@5 | 0.136 | 0.296 | 0.152 | 0.108 | 0.536 | 0.196 | 0.196 | 0.3 | 0.236 | 0.24 | 0.112 | 0.188 | 0.5633 | | dot_precision@10 | 0.08 | 0.274 | 0.082 | 0.076 | 0.484 | 0.104 | 0.124 | 0.156 | 0.126 | 0.17 | 0.068 | 0.096 | 0.4694 | | dot_recall@1 | 0.38 | 0.0251 | 0.29 | 0.075 | 0.0582 | 0.66 | 0.2394 | 0.4 | 0.674 | 0.0787 | 0.1 | 0.575 | 0.0522 | | dot_recall@3 | 0.58 | 0.0545 | 0.6 | 0.1573 | 0.1611 | 0.7733 | 0.3863 | 0.67 | 0.8413 | 0.1807 | 0.4 | 0.765 | 0.1183 | | dot_recall@5 | 0.68 | 0.0925 | 0.69 | 0.2297 | 0.2099 | 0.8833 | 0.4781 | 0.75 | 0.9347 | 0.2457 | 0.56 | 0.83 | 0.1947 | | dot_recall@10 | 0.8 | 0.1229 | 0.74 | 0.3113 | 0.3385 | 0.9433 | 0.5749 | 0.78 | 0.9553 | 0.3477 | 0.68 | 0.85 | 0.3049 | | **dot_ndcg@10** | **0.5732** | **0.3151** | **0.5376** | **0.2253** | **0.583** | **0.8065** | **0.4752** | **0.7469** | **0.8581** | **0.3312** | **0.3878** | **0.7312** | **0.5304** | | dot_mrr@10 | 0.5023 | 0.4813 | 0.4752 | 0.2982 | 0.7802 | 0.7834 | 0.5264 | 0.8557 | 0.8407 | 0.514 | 0.2943 | 0.6945 | 0.7983 | | dot_map@100 | 0.5114 | 0.128 | 0.4707 | 0.1692 | 0.4352 | 0.7548 | 0.4049 | 0.6894 | 0.8191 | 0.2513 | 0.3064 | 0.6914 | 0.394 | | query_active_dims | 93.54 | 103.8 | 110.28 | 299.0 | 107.3 | 257.98 | 105.2 | 192.64 | 107.86 | 151.72 | 528.76 | 231.96 | 96.9388 | | query_sparsity_ratio | 0.9971 | 0.9968 | 0.9966 | 0.9907 | 0.9966 | 0.9919 | 0.9967 | 0.994 | 0.9966 | 0.9953 | 0.9835 | 0.9928 | 0.997 | | corpus_active_dims | 340.5975 | 441.6482 | 506.6707 | 427.4809 | 486.1007 | 648.0829 | 393.1256 | 552.5831 | 104.7622 | 413.0922 | 484.5764 | 441.1353 | 410.176 | | corpus_sparsity_ratio | 0.9894 | 0.9862 | 0.9842 | 0.9866 | 0.9848 | 0.9798 | 0.9877 | 0.9827 | 0.9967 | 0.9871 | 0.9849 | 0.9862 | 0.9872 | #### Sparse Nano BEIR * Dataset: `FrenchNanoBEIR_mean` * Evaluated with [SparseNanoBEIREvaluator](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseNanoBEIREvaluator) with these parameters: ```json { "dataset_names": [ "msmarco", "nfcorpus", "nq" ] } ``` | Metric | Value | |:----------------------|:-----------| | dot_accuracy@1 | 0.3533 | | dot_accuracy@3 | 0.58 | | dot_accuracy@5 | 0.62 | | dot_accuracy@10 | 0.7333 | | dot_precision@1 | 0.3533 | | dot_precision@3 | 0.2444 | | dot_precision@5 | 0.1947 | | dot_precision@10 | 0.1447 | | dot_recall@1 | 0.2315 | | dot_recall@3 | 0.4028 | | dot_recall@5 | 0.4547 | | dot_recall@10 | 0.5662 | | **dot_ndcg@10** | **0.4709** | | dot_mrr@10 | 0.4742 | | dot_map@100 | 0.3628 | | query_active_dims | 105.3867 | | query_sparsity_ratio | 0.9967 | | corpus_active_dims | 401.0913 | | corpus_sparsity_ratio | 0.9875 | #### Semantic Similarity * Dataset: `frenchSTS-dev` * Evaluated with [SparseEmbeddingSimilarityEvaluator](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseEmbeddingSimilarityEvaluator) | Metric | Value | |:--------------------|:-----------| | pearson_cosine | 0.7288 | | **spearman_cosine** | **0.6907** | | active_dims | 163.7789 | | sparsity_ratio | 0.9949 | #### Sparse Nano BEIR * Dataset: `FrenchNanoBEIR_mean` * Evaluated with [SparseNanoBEIREvaluator](https://sbert.net/docs/package_reference/sparse_encoder/evaluation.html#sentence_transformers.sparse_encoder.evaluation.SparseNanoBEIREvaluator) with these parameters: ```json { "dataset_names": [ "climatefever", "dbpedia", "fever", "fiqa2018", "hotpotqa", "msmarco", "nfcorpus", "nq", "quoraretrieval", "scidocs", "arguana", "scifact", "touche2020" ] } ``` | Metric | Value | |:----------------------|:-----------| | dot_accuracy@1 | 0.4965 | | dot_accuracy@3 | 0.669 | | dot_accuracy@5 | 0.7584 | | dot_accuracy@10 | 0.8261 | | dot_precision@1 | 0.4965 | | dot_precision@3 | 0.3116 | | dot_precision@5 | 0.2507 | | dot_precision@10 | 0.1776 | | dot_recall@1 | 0.2775 | | dot_recall@3 | 0.4375 | | dot_recall@5 | 0.5214 | | dot_recall@10 | 0.5961 | | **dot_ndcg@10** | **0.5463** | | dot_mrr@10 | 0.6034 | | dot_map@100 | 0.4635 | | query_active_dims | 183.7473 | | query_sparsity_ratio | 0.9943 | | corpus_active_dims | 435.1348 | | corpus_sparsity_ratio | 0.9864 | ## Training Details ### Training Dataset #### msmarco-qwen3-reranker-0.6_b-french * Dataset: [msmarco-qwen3-reranker-0.6_b-french](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french) at [0be06a4](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french/tree/0be06a48784fb9bf994e0f9204a2126aa489e34e) * Size: 483,497 training samples * Columns: query, positive, negative_1, negative_2, negative_3, negative_4, negative_5, negative_6, negative_7, negative_8, and score * Approximate statistics based on the first 1000 samples: | | query | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 | negative_6 | negative_7 | negative_8 | score | |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------------| | type | string | string | string | string | string | string | string | string | string | string | list | | details | | | | | | | | | | | | * Samples: | query | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 | negative_6 | negative_7 | negative_8 | score | |:---------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------| | qu'est-ce que le clomifène | Utilisations de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse.ses de ce médicament. Le clomifène est utilisé comme médicament contre la fertilité chez certaines femmes incapables de devenir enceintes. Le clomifène agit probablement en modifiant l'équilibre hormonal du corps. Chez les femmes, cela provoque l'ovulation et prépare le corps à la grossesse. | Le citrate de clomifène, une hormone synthétique couramment utilisée pour induire ou réguler l'ovulation, est la pilule de fertilité la plus souvent prescrite. Les noms de marque pour le citrate de clomifène incluent Clomid et Serophene. Le clomifène agit indirectement pour stimuler l'ovulation. | Parfois, le clomifène peut trop stimuler les ovaires, provoquant la libération de plusieurs ovules, ce qui peut entraîner des naissances multiples, telles que des jumeaux ou des triplés (voir Clomid et jumeaux). Le clomifène est l'un des médicaments de fertilité les moins chers et les plus faciles à utiliser. Cependant, cela ne fonctionnera pas pour tous les types d'infertilité. Votre fournisseur de soins de santé doit essayer de trouver la cause de votre infertilité avant d'essayer le clomifène. | Le citrate de clomifène offre deux avantages à l'athlète qui améliore ses performances, l'un étant le principal. Le plus souvent, ce SERM est utilisé à des fins de récupération post-cycle ; spécifiquement pour stimuler la production naturelle de testostérone qui a été supprimée en raison de l'utilisation de stéroïdes anabolisants. | SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes. | Indication : Clomid (citrate de clomifène) est souvent le premier choix pour traiter l'infertilité, car il est efficace et utilisé depuis plus de 40 ans. | Description de Clomid. 1 Clomid (comprimés de citrate de clomifène USP) est un stimulant ovulatoire non stéroïdien administré par voie orale désigné chimiquement sous le nom de citrate de 2-[p-(2-chloro-1,2-diphénylvinyl)phénoxy] triéthylamine (1:1). Il a la formule moléculaire de C26H28ClNO • C6H8O7 et un poids moléculaire de 598,09. | SOPK et problèmes d'ovulation et traitement Clomid. Clomid (citrate de clomifène ou Serophene) est un médicament oral couramment utilisé pour le traitement de l'infertilité. 1 Il est souvent administré pour tenter de provoquer l'ovulation chez les femmes qui ne développent pas et ne libèrent pas d'ovule (ovuler) d'elles-mêmes. Clomid est commencé au début du cycle menstruel et est pris pendant cinq jours, soit du 3e au 7e jour du cycle, soit du 5e au 9e jour. . | Clomid est pris sous forme de pilule. Ceci est différent des médicaments de fertilité plus forts, qui nécessitent une injection. Clomid est également très efficace, stimulant l'ovulation 80 pour cent du temps. Clomid peut également être commercialisé sous le nom Serophene, ou vous pouvez le voir vendu sous son nom générique, le citrate de clomifène. Remarque : Clomid peut également être utilisé comme traitement de l'infertilité masculine. Cet article se concentre sur le traitement Clomid chez les femmes. | [4.75390625, 6.9375, 3.92578125, 1.0400390625, 5.61328125, ...] | | coût comptable typique pour l'entrepreneur informatique | Sur le marché actuel, nous avons vu des taux aussi bas que 50 £ + TVA, et aussi élevés que 180 £ + TVA pour les comptables contractuels dédiés . Il est intéressant de noter que le coût moyen de la comptabilité des sous-traitants n'a pas augmenté parallèlement à l'inflation au cours de la dernière décennie. | Alors, combien coûte un entrepreneur, entre 5 % et 25 % du coût total du projet, avec une moyenne allant de 10 à 15 %. compétences. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais. | 1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet. Pour un démarrage simple, attendez-vous à un minimum de 0,5 à 1,5 heure de consultation (75 $ à 600 $) pour passer en revue la structure de votre entreprise et les questions fiscales de base. | Alors, combien coûte un entrepreneur, entre 5% et 25% du coût total du projet, avec une moyenne allant de 10 à 15%. La manière exacte dont un entrepreneur général facture un projet dépend du type de contrat que vous acceptez. Il existe trois types courants de contrats de coûts, à prix fixe, temps et matériaux et coût plus frais. Chaque type de contrat présente des avantages et des inconvénients à la fois pour le consommateur et pour l'entrepreneur. | 1 Les comptables facturent de 150 $ à 400 $ ou plus de l'heure, selon le type de travail, la taille de l'entreprise et son emplacement. 2 Vous paierez des taux inférieurs pour le travail de routine effectué par un associé moins expérimenté ou un employé moins formé, par exemple 30 $ à 50 $ pour les services de tenue de livres. 3 Le total des honoraires d'un comptable dépend du projet. | le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $ | Les services de comptabilité coûtent généralement de 250 $ à 400 $ par mois, ou de 350 $ à 500 $ par trimestre. Taxes de vente et recs bancaires inclus. Nous effectuons tout le traitement, le dépôt et les dépôts fiscaux. 5 employés, paie aux deux semaines, dépôt direct, 135 $ par mois. | Moins c'est sous-traité, moins cher ce sera pour vous. Un comptable devrait être payé entre 15 $ et 18 $ de l'heure. Un comptable titulaire d'un diplôme de premier cycle (4 ans) devrait être payé environ 20 $ l'heure, mais cela dépend toujours de ce que vous lui demandez de faire. Un comptable avec un diplôme d'études supérieures (maîtrise) devrait être payé entre 25 $ et 30 $ de l'heure. | Payer par niveau d'expérience pour l'analyste du renseignement. Médiane de toutes les rémunérations (y compris les pourboires, les primes et les heures supplémentaires) par années d'expérience. Les analystes du renseignement avec beaucoup d'expérience ont tendance à bénéficier de revenus plus élevés. | [7.44921875, 3.271484375, 5.859375, 3.234375, 5.421875, ...] | | qu'est-ce que mch sur un test sanguin | Ce que signifient les niveaux élevés. Les niveaux de MCH dans les tests sanguins sont considérés comme élevés s'ils sont de 35 ou plus. Un taux d'hémoglobine normal est considéré comme compris entre 26 et 33 picogrammes par globule rouge. Des taux élevés de MCH peuvent indiquer une anémie macrocytaire, qui peut être causée par un manque de vitamine B12. Les globules rouges acrocytaires sont gros et ont donc tendance à avoir un MCH plus élevé, tandis que les globules rouges microcytaires auraient une valeur inférieure. MCH est l'un des trois indices de globules rouges (MCHC et MCV sont les deux autres). Les mesures sont effectuées par machine et peuvent aider au diagnostic de problèmes médicaux. | MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale. Les médecins n'utilisent l'HME qu'à titre d'information à l'appui, pas pour poser un diagnostic. | A. MCH signifie hémoglobine corpusculaire moyenne. Il estime la quantité moyenne d'hémoglobine dans chaque globule rouge, mesurée en picogrammes (un trillionième de gramme). Les compteurs de cellules automatisés calculent la MCH, qui est signalée dans le cadre d'un test de numération globulaire complète (CBC). La MCH peut être faible en anémie ferriprive et élevée en anémie due à une carence en vitamine B12 ou en folate. D'autres formes d'anémie peuvent également rendre la MCH anormale. | Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids. | Un test sanguin MCH élevé indique qu'il y a un faible apport d'oxygène dans le sang, alors qu'un test sanguin MCH faible signifie que l'hémoglobine est trop faible dans les cellules, ce qui indique un manque de fer. Il est important que le fer soit maintenu à un certain niveau car trop ou trop peu de fer peut être dangereux pour votre corps. | diapositive 1 sur 7. Qu'est-ce que la SMI ? MCH est le sigle de Mean Corpuscular Hemoglobin. Tiré du latin, le terme fait référence à la quantité moyenne d'hémoglobine présente dans les globules rouges. Un test sanguin CBC (numération globulaire complète) peut être utilisé pour surveiller les niveaux de MCH dans le sang. Lab Tests Online explique que l'aspect MCH d'un test CBC est une mesure de la quantité moyenne d'hémoglobine transportant l'oxygène à l'intérieur d'un globule rouge. Les globules rouges macrocytaires sont gros et ont donc tendance à avoir une MCH plus élevée, tandis que les globules rouges microcytaires auraient une valeur inférieure. | Le test utilisé pour déterminer la quantité d'hémoglobine dans le sang est connu sous le nom de test sanguin MCH. La forme complète de MCH est l'hémoglobine corpusculaire moyenne. Ce test est donc utilisé pour déterminer la quantité moyenne d'hémoglobine par globule rouge dans le corps. Les résultats du test sanguin MCH sont donc rapportés en picogrammes, une toute petite mesure du poids. La plage normale du test sanguin MCH se situe entre 26 et 33 pg par cellule. | Un test MCHC est un test qui est effectué pour tester une personne pour l'anémie. Le MCHC dans un test MCHC signifie Concentration Corpusculaire Moyenne d'Hémoglobine. MCHC est le calcul de l'hémoglobine moyenne à l'intérieur d'un globule rouge. Un test MCHC peut être effectué avec un test MCV (Mean Corpuscular Volume). Les deux niveaux sont utilisés pour tester les personnes pour l'anémie. Le test MCHC est également connu sous le nom de test sanguin MCH qui teste les niveaux d'hémoglobine dans le sang. Le test MCHC peut être commandé dans le cadre d'une numération formule sanguine (CBC). Le CHC est mesuré en grammes par décilitre. Les lectures normales pour MCHC sont de 31 grammes par décilitre à 35 grammes par décilitre. Un test sanguin MCHC peut être demandé lorsqu'une personne montre des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation. | Le test examine la quantité moyenne d'hémoglobine par globule rouge. Donc MCHC = la quantité d'hémoglobine présente dans chaque globule rouge. Un test sanguin MCHC peut être demandé pour une personne qui présente des signes de fatigue ou de faiblesse, lorsqu'il y a une infection, qu'elle saigne ou qu'elle a des ecchymoses facilement ou lorsqu'il y a une inflammation notable. | [6.44921875, 7.05078125, 7.2109375, 8.40625, 6.53515625, ...] | * Loss: [SpladeLoss](https://sbert.net/docs/package_reference/sparse_encoder/losses.html#spladeloss) with these parameters: ```json { "loss": "SparseMarginMSELoss", "document_regularizer_weight": 0.1, "query_regularizer_weight": 0.001 } ``` ### Evaluation Dataset #### msmarco-qwen3-reranker-0.6_b-french * Dataset: [msmarco-qwen3-reranker-0.6_b-french](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french) at [0be06a4](https://huggingface.co/datasets/arthurbresnu/msmarco-Qwen3-Reranker-0.6B-french/tree/0be06a48784fb9bf994e0f9204a2126aa489e34e) * Size: 10,000 evaluation samples * Columns: query, positive, negative_1, negative_2, negative_3, negative_4, negative_5, negative_6, negative_7, negative_8, and score * Approximate statistics based on the first 1000 samples: | | query | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 | negative_6 | negative_7 | negative_8 | score | |:--------|:----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------|:-----------------------------------| | type | string | string | string | string | string | string | string | string | string | string | list | | details | | | | | | | | | | | | * Samples: | query | positive | negative_1 | negative_2 | negative_3 | negative_4 | negative_5 | negative_6 | negative_7 | negative_8 | score | |:-------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------| | combien de personnes employées par shell | Shell dans le monde entier. Royal Dutch Shell a été fondée en 1907, bien que notre histoire remonte au début du XIXe siècle, dans un petit magasin à Londres où la famille Samuel vendait des coquillages. Aujourd'hui, Shell est l'une des principales sociétés énergétiques au monde, employant en moyenne 93 000 personnes et opérant dans plus de 70 pays. Notre siège social est à La Haye, aux Pays-Bas, et notre PDG est Ben van Beurden. | Afficher les informations sur les sources. Cette statistique montre le nombre d'employés de SeaWorld Entertainment, Inc. aux États-Unis, par type. En décembre 2016, SeaWorld employait 5 000 employés à temps plein et comptait environ 13 000 employés saisonniers pendant la haute saison d'exploitation. | Emplois, entreprises, personnes et articles pour le spécialiste de la paie de LinkedIn - membres d'Addus Homecare, Inc.. Informations sur les membres de Payroll Specialist - Addus Homecare, Inc. sur LinkedIn. Salaire médian 31 300 $. | En juillet 2014, il y avait 139 millions de personnes employées aux États-Unis. Ce nombre est en hausse de 209 000 salariés depuis juin et de 1,47 million depuis début 2014. | le salaire moyen des frappes de saisie de données par heure le salaire moyen pour les frappes de saisie de données par heure est de 20 000 $ | Recherchez et examinez les emplois Plano Synergy. Apprenez-en plus sur une carrière chez Plano Synergy, y compris tous les emplois récents, les tendances d'embauche, les salaires, l'environnement de travail et plus encore. Trouvez des emplois Avis sur l'entreprise Trouvez des salaires Trouvez des CV Employeurs / Publiez une offre Téléchargez votre CV Connectez-vous | À partir de millions de données sur les salaires réels. 13 Données sur les salaires des spécialistes du support client. Le salaire moyen de Customer Support Specialist est de $59 032 S'identifier | À partir de millions de données sur les salaires réels. 1 Données salariales du PDG Ally. Le salaire moyen du PDG Ally est de 55 000 $ Salaire de départ détaillé du PDG Ally, salaire médian, échelle salariale, rapport de données sur les primes | Avantages et avantages de HelpSystems, notamment sa mutuelle et sa politique en matière de retraite et de congés. Signalé de manière anonyme par les employés de HelpSystems. Glassdoor utilise des cookies pour améliorer votre expérience sur le site. | [6.265625, -1.3671875, -6.91796875, 1.111328125, -7.96875, ...] | | qu'est-ce qu'un lcsw | LCSW est un acronyme pour travailleur social clinique agréé, et les personnes portant ce titre sont des professionnels qualifiés qui répondent à certaines exigences et travaillent dans divers domaines. Le terme travailleur social n'est pas toujours synonyme de travailleur social clinique agréé. | LISW signifie que la personne est un travailleur social indépendant agréé. LCSW signifie que la personne est un travailleur social clinique agréé. Source(s) : Introduction au travail social 101 à l'Université du Nevada, Las Vega (UNLV) Dorothy K. · il y a 1 décennie. | Un LCSW est un travailleur social clinique agréé. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est que parce que la licence LMHC est si nouvelle, il y en a moins dans le domaine.n LCSW est une assistante sociale clinique agréée. Un LMHC est le plus récent ajout dans le domaine de la santé mentale. Ils sont très similaires et peuvent faire la plupart des mêmes choses à quelques exceptions près. Une chose à garder à l'esprit est qu'en raison de la nouveauté du LMHC, il y en a moins dans le domaine. | Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Ils travaillent avec les clients afin de les aider à faire face aux problèmes liés à leur santé mentale et émotionnelle. Cela pourrait être lié à la toxicomanie, à un traumatisme passé ou à une maladie mentale. | Travailleur social clinicien agréé | LCSW. Le travailleur social clinique agréé ou LCSW est un sous-secteur du domaine du travail social. Le LCSW travaille avec les clients afin d'aider à faire face aux problèmes de santé mentale et émotionnelle. Il existe une grande variété de spécialisations sur lesquelles le travailleur social clinique agréé peut se concentrer. | L'examen LMSW est un test informatisé contenant 170 questions à choix multiples conçues pour mesurer les compétences minimales dans quatre catégories de pratique du travail social : développement humain, diversité et comportement dans l'environnement. Évaluation et planification des interventions. | Le travailleur social clinique agréé, également connu sous le nom de LCSW, est une branche du travail social spécialisée dans la thérapie en santé mentale sous forme de conseil. Devenir un LCSW nécessite un niveau de formation important, notamment avoir obtenu une maîtrise en travail social (MSW) d'un programme accrédité par le Council on Social Work Education (CSWE). | une. Les conditions d'examen pour obtenir l'autorisation d'exercer en tant que LCSW comprennent la réussite de l'examen clinique de l'ASWB ou de l'examen clinique des travailleurs sociaux de l'État de Californie. Champ d'exercice-Limites. a. Dans la mesure où ils sont préparés par l'éducation et la formation, un LCSW peut s'engager dans tous les actes et pratiques définis comme la pratique du travail social clinique. Travail social certifié (CSW) : CSW désigne un travailleur social certifié agréé. Un CSW doit avoir une maîtrise. | Le client LTCM est un moyen pour les entreprises de rester en contact avec vous, leurs clients, de manière discrète et entièrement sous le contrôle des utilisateurs. C'est une application qui s'exécute silencieusement sur l'ordinateur. Les utilisateurs peuvent et doivent personnaliser le client pour qu'il corresponde à leurs préférences souhaitées. | [7.34375, 6.046875, 7.09765625, 6.46484375, 7.28515625, ...] | | le thé oolong contient-il beaucoup de caféine ? | À poids donné, le thé contient plus de caféine que le café, mais cela ne veut pas dire qu'une portion habituelle de thé contient plus de caféine que le café car le thé est généralement infusé de manière faible. Certains types de thé, comme le thé oolong et le thé noir, contiennent plus de caféine que la plupart des autres thés. Parmi les six thés de base (vert, noir, jaune, blanc, oolong, foncé), le thé vert contient moins de caféine que le thé noir et le thé blanc en contient moins que le thé vert. Mais de nombreuses études ont révélé que la teneur en caféine varie davantage parmi les thés individuels que parmi les grandes catégories. | En fait, le thé oolong contient moins de caféine que le café et le thé noir. Une tasse de thé oolong ne contient qu'environ 1/3 de caféine d'une tasse de café. Selon une recherche menée par HICKS M.B, la caféine diminue chaque fois que les feuilles de thé passent par le processus d'infusion. | Le thé Oolong contient de la caféine. La caféine agit en stimulant le système nerveux central (SNC), le cœur et les muscles. Le thé Oolong contient également de la théophylline et de la théobromine, qui sont des produits chimiques similaires à la caféine. Trop de thé oolong, plus de cinq tasses par jour, peut provoquer des effets secondaires à cause de la caféine. | Le thé Oolong, fabriqué à partir de feuilles plus mûres, contient généralement moins de caféine que le thé vert. D'un autre côté, les feuilles mûres contiennent moins de théanine, un relaxant doux et naturel qui rend un thé beaucoup moins caféiné qu'il ne l'est en réalité. C'est en tout cas la théorie. | Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques. Cependant, ne buvez pas plus de 2 tasses de thé oolong par jour. Cette quantité de thé contient environ 200 mg de caféine. Trop de caféine pendant la grossesse peut provoquer un accouchement prématuré, un faible poids à la naissance et nuire au bébé. | Un rapport du Département des services nutritionnels fournit les plages de teneur en caféine suivantes pour une tasse de thé à base de feuilles en vrac : 1 Thé noir : 23 à 110 mg. 2 Thé Oolong : 12 - 55 mg. Thé vert : 8 - 36 mg. | Le thé Oolong est un produit fabriqué à partir des feuilles, des bourgeons et des tiges de la plante Camellia sinensis. C'est la même plante qui est également utilisée pour faire du thé noir et du thé vert. La différence réside dans le traitement. Le thé Oolong est partiellement fermenté, le thé noir est entièrement fermenté et le thé vert n'est pas fermenté. Le thé Oolong est utilisé pour aiguiser les capacités de réflexion et améliorer la vigilance mentale. Il est également utilisé pour prévenir le cancer, la carie dentaire, l'ostéoporose et les maladies cardiaques. | Effets du thé sur la santé – Caféine. Sous forme sèche, un kilogramme de thé noir contient deux fois plus de caféine qu'un kilogramme de café. Mais un kilogramme de thé noir fait environ 450 tasses de thé et un kilogramme de café fait environ 100 tasses de café, donc. Il y a moins de caféine dans une tasse de thé que dans une tasse de café. Les thés verts contiennent moins de caféine que les thés noirs et les thés blancs contiennent encore moins de caféine que les thés verts. Les thés Oolong se situent entre les thés noirs et verts. La tisane, parce qu'elle n'est pas fabriquée à partir du même théier, est naturellement sans caféine. Voici une représentation graphique de leur teneur respective en caféine. | La portion moyenne de 8 onces de thé noir infusé contient 14 à 70 mg de caféine. Cela se compare aux 24 à 45 mg de caféine contenus dans le thé vert. Un verre de 8 onces de thé glacé instantané préparé avec de l'eau contient 11 à 47 mg de caféine. La plupart des thés en bouteille prêts à boire contiennent de 5 à 40 mg de caféine. Tout comme le café, le thé décaféiné contient encore 5 à 10 mg de caféine par tasse. | [7.60546875, 8.78125, 9.109375, 8.609375, 7.984375, ...] | * Loss: [SpladeLoss](https://sbert.net/docs/package_reference/sparse_encoder/losses.html#spladeloss) with these parameters: ```json { "loss": "SparseMarginMSELoss", "document_regularizer_weight": 0.1, "query_regularizer_weight": 0.001 } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `per_device_train_batch_size`: 32 - `per_device_eval_batch_size`: 32 - `learning_rate`: 2e-05 - `num_train_epochs`: 10 - `warmup_ratio`: 0.05 - `save_safetensors`: False - `bf16`: True - `load_best_model_at_end`: True #### All Hyperparameters
Click to expand - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 32 - `per_device_eval_batch_size`: 32 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 2e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1.0 - `num_train_epochs`: 10 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.05 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: False - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: True - `fp16`: False - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 6 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: True - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: True - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: None - `hub_always_push`: False - `hub_revision`: None - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `liger_kernel_config`: None - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: proportional - `router_mapping`: {} - `learning_rate_mapping`: {}
### Training Logs
Click to expand | Epoch | Step | Training Loss | Validation Loss | NanoFrenchMSMARCO_dot_ndcg@10 | NanoFrenchNFCorpus_dot_ndcg@10 | NanoFrenchNQ_dot_ndcg@10 | FrenchNanoBEIR_mean_dot_ndcg@10 | frenchSTS-dev_spearman_cosine | NanoFrenchClimateFEVER_dot_ndcg@10 | NanoFrenchDBPedia_dot_ndcg@10 | NanoFrenchFEVER_dot_ndcg@10 | NanoFrenchFiQA2018_dot_ndcg@10 | NanoFrenchHotpotQA_dot_ndcg@10 | NanoFrenchQuoraRetrieval_dot_ndcg@10 | NanoFrenchSCIDOCS_dot_ndcg@10 | NanoFrenchArguAna_dot_ndcg@10 | NanoFrenchSciFact_dot_ndcg@10 | NanoFrenchTouche2020_dot_ndcg@10 | |:-------:|:---------:|:-------------:|:---------------:|:-----------------------------:|:------------------------------:|:------------------------:|:-------------------------------:|:-----------------------------:|:----------------------------------:|:-----------------------------:|:---------------------------:|:------------------------------:|:------------------------------:|:------------------------------------:|:-----------------------------:|:-----------------------------:|:-----------------------------:|:--------------------------------:| | 0.0265 | 50 | 20585153.28 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.0530 | 100 | 11265000.96 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.0794 | 150 | 2306957.76 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.1059 | 200 | 84727.93 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.1324 | 250 | 180.1091 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.1589 | 300 | 48.3599 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.1854 | 350 | 38.6951 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.2119 | 400 | 35.3894 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.2383 | 450 | 33.5967 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.2648 | 500 | 32.3302 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.2913 | 550 | 30.9431 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.3178 | 600 | 31.6018 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.3443 | 650 | 30.3047 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.3708 | 700 | 29.9156 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.3972 | 750 | 30.0303 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.4237 | 800 | 29.2744 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.4502 | 850 | 28.9374 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.4767 | 900 | 28.2462 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.5 | 944 | - | 26.5254 | 0.0358 | 0.0444 | 0.0388 | 0.0397 | 0.5166 | - | - | - | - | - | - | - | - | - | - | | 0.5032 | 950 | 27.0688 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.5297 | 1000 | 24.0728 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.5561 | 1050 | 22.3726 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.5826 | 1100 | 21.433 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.6091 | 1150 | 19.8246 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.6356 | 1200 | 19.2238 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.6621 | 1250 | 18.3018 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.6886 | 1300 | 17.6265 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.7150 | 1350 | 17.0156 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.7415 | 1400 | 16.5841 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.7680 | 1450 | 16.1089 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.7945 | 1500 | 15.655 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.8210 | 1550 | 15.4634 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.8475 | 1600 | 15.161 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.8739 | 1650 | 15.0544 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.9004 | 1700 | 14.6081 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.9269 | 1750 | 15.0786 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.9534 | 1800 | 14.9494 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 0.9799 | 1850 | 14.4579 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.0 | 1888 | - | 14.3075 | 0.5355 | 0.3173 | 0.5006 | 0.4511 | 0.6189 | - | - | - | - | - | - | - | - | - | - | | 1.0064 | 1900 | 14.3697 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.0328 | 1950 | 13.8919 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.0593 | 2000 | 13.6461 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.0858 | 2050 | 13.4206 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.1123 | 2100 | 13.3145 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.1388 | 2150 | 13.3614 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.1653 | 2200 | 13.5925 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.1917 | 2250 | 13.2236 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.2182 | 2300 | 13.0558 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.2447 | 2350 | 13.0191 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.2712 | 2400 | 12.8123 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.2977 | 2450 | 13.1506 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.3242 | 2500 | 12.5855 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.3506 | 2550 | 12.8401 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.3771 | 2600 | 12.7115 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.4036 | 2650 | 12.6968 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.4301 | 2700 | 12.7528 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.4566 | 2750 | 12.3611 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.4831 | 2800 | 12.462 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.5 | 2832 | - | 12.9295 | 0.5543 | 0.3243 | 0.4889 | 0.4559 | 0.6494 | - | - | - | - | - | - | - | - | - | - | | 1.5095 | 2850 | 12.4375 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.5360 | 2900 | 12.3238 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.5625 | 2950 | 12.5061 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.5890 | 3000 | 12.0933 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.6155 | 3050 | 12.3678 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.6419 | 3100 | 12.2139 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.6684 | 3150 | 12.0209 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.6949 | 3200 | 12.1175 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.7214 | 3250 | 12.0454 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.7479 | 3300 | 12.2641 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.7744 | 3350 | 12.0314 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.8008 | 3400 | 12.0869 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.8273 | 3450 | 11.7578 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.8538 | 3500 | 11.6682 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.8803 | 3550 | 11.663 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.9068 | 3600 | 11.605 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.9333 | 3650 | 11.9347 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.9597 | 3700 | 11.8644 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 1.9862 | 3750 | 11.7347 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.0 | 3776 | - | 11.4723 | 0.5627 | 0.3087 | 0.5058 | 0.4591 | 0.6836 | - | - | - | - | - | - | - | - | - | - | | 2.0127 | 3800 | 11.2564 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.0392 | 3850 | 11.121 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.0657 | 3900 | 11.1555 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.0922 | 3950 | 11.2267 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.1186 | 4000 | 11.1762 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.1451 | 4050 | 10.9489 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.1716 | 4100 | 10.8785 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.1981 | 4150 | 10.9404 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.2246 | 4200 | 10.6629 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.2511 | 4250 | 10.9971 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.2775 | 4300 | 10.7995 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.3040 | 4350 | 10.7151 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.3305 | 4400 | 10.8536 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.3570 | 4450 | 10.7067 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.3835 | 4500 | 10.5278 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.4100 | 4550 | 10.8879 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.4364 | 4600 | 10.6817 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.4629 | 4650 | 10.7279 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.4894 | 4700 | 10.7 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.5 | 4720 | - | 11.1667 | 0.5550 | 0.3122 | 0.5006 | 0.4559 | 0.6883 | - | - | - | - | - | - | - | - | - | - | | 2.5159 | 4750 | 10.673 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.5424 | 4800 | 10.65 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.5689 | 4850 | 10.7306 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.5953 | 4900 | 10.5562 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.6218 | 4950 | 10.5366 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.6483 | 5000 | 10.343 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.6748 | 5050 | 10.5978 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.7013 | 5100 | 10.6023 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.7278 | 5150 | 10.4654 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.7542 | 5200 | 10.6042 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.7807 | 5250 | 10.3111 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.8072 | 5300 | 10.4856 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.8337 | 5350 | 10.4682 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.8602 | 5400 | 10.6341 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.8867 | 5450 | 10.2446 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.9131 | 5500 | 10.4203 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.9396 | 5550 | 10.2922 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.9661 | 5600 | 10.3565 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 2.9926 | 5650 | 10.3137 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.0 | 5664 | - | 10.6924 | 0.5612 | 0.3011 | 0.5067 | 0.4563 | 0.6900 | - | - | - | - | - | - | - | - | - | - | | 3.0191 | 5700 | 9.9572 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.0456 | 5750 | 9.9094 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.0720 | 5800 | 9.7274 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.0985 | 5850 | 9.7687 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.125 | 5900 | 9.7412 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.1515 | 5950 | 9.821 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.1780 | 6000 | 9.9769 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.2044 | 6050 | 9.7785 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.2309 | 6100 | 9.8235 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.2574 | 6150 | 9.9859 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.2839 | 6200 | 9.7764 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.3104 | 6250 | 9.711 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.3369 | 6300 | 9.8058 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.3633 | 6350 | 9.6828 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.3898 | 6400 | 9.6186 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.4163 | 6450 | 9.7859 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.4428 | 6500 | 9.8609 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.4693 | 6550 | 9.66 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.4958 | 6600 | 9.6902 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.5 | 6608 | - | 10.3828 | 0.5686 | 0.3161 | 0.5154 | 0.4667 | 0.6925 | - | - | - | - | - | - | - | - | - | - | | 3.5222 | 6650 | 9.8824 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.5487 | 6700 | 9.9114 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.5752 | 6750 | 9.72 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.6017 | 6800 | 9.6147 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.6282 | 6850 | 9.6893 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.6547 | 6900 | 9.6026 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.6811 | 6950 | 9.7258 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.7076 | 7000 | 9.6897 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.7341 | 7050 | 9.7605 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.7606 | 7100 | 9.8188 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.7871 | 7150 | 9.7393 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.8136 | 7200 | 9.6864 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.8400 | 7250 | 9.5516 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.8665 | 7300 | 9.7377 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.8930 | 7350 | 9.7195 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.9195 | 7400 | 9.6121 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.9460 | 7450 | 9.5348 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.9725 | 7500 | 9.7331 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 3.9989 | 7550 | 9.4919 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.0 | 7552 | - | 10.4966 | 0.5717 | 0.3125 | 0.5144 | 0.4662 | 0.6986 | - | - | - | - | - | - | - | - | - | - | | 4.0254 | 7600 | 9.2328 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.0519 | 7650 | 9.1034 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.0784 | 7700 | 9.0662 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.1049 | 7750 | 9.1097 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.1314 | 7800 | 9.2953 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.1578 | 7850 | 9.0649 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.1843 | 7900 | 9.0018 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.2108 | 7950 | 9.2042 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.2373 | 8000 | 9.1724 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.2638 | 8050 | 9.3856 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.2903 | 8100 | 9.0011 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.3167 | 8150 | 9.1969 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.3432 | 8200 | 9.1748 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.3697 | 8250 | 9.2278 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.3962 | 8300 | 9.0954 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.4227 | 8350 | 9.1677 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.4492 | 8400 | 9.1277 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.4756 | 8450 | 9.0923 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.5 | 8496 | - | 10.2655 | 0.5452 | 0.3144 | 0.5188 | 0.4595 | 0.6893 | - | - | - | - | - | - | - | - | - | - | | 4.5021 | 8500 | 8.9579 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.5286 | 8550 | 9.1938 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.5551 | 8600 | 8.9581 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.5816 | 8650 | 8.9727 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.6081 | 8700 | 9.1751 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.6345 | 8750 | 9.1457 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.6610 | 8800 | 9.1258 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.6875 | 8850 | 9.0139 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.7140 | 8900 | 9.1612 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.7405 | 8950 | 9.0908 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.7669 | 9000 | 9.2235 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.7934 | 9050 | 9.0383 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.8199 | 9100 | 9.0684 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.8464 | 9150 | 9.0305 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.8729 | 9200 | 9.1559 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.8994 | 9250 | 9.1019 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.9258 | 9300 | 9.0945 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.9523 | 9350 | 9.2617 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 4.9788 | 9400 | 9.1275 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.0 | 9440 | - | 10.2047 | 0.5741 | 0.3054 | 0.5114 | 0.4637 | 0.6940 | - | - | - | - | - | - | - | - | - | - | | 5.0053 | 9450 | 9.0917 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.0318 | 9500 | 8.6781 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.0583 | 9550 | 8.7411 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.0847 | 9600 | 8.7691 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.1112 | 9650 | 8.7856 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.1377 | 9700 | 8.6335 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.1642 | 9750 | 8.6497 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.1907 | 9800 | 8.7253 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.2172 | 9850 | 8.6894 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.2436 | 9900 | 8.655 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.2701 | 9950 | 8.5979 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.2966 | 10000 | 8.8238 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.3231 | 10050 | 8.6513 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.3496 | 10100 | 8.5982 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.3761 | 10150 | 8.5238 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.4025 | 10200 | 8.6476 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.4290 | 10250 | 8.5382 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.4555 | 10300 | 8.6012 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.4820 | 10350 | 8.6721 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.5 | 10384 | - | 9.8953 | 0.5605 | 0.3006 | 0.5076 | 0.4562 | 0.6915 | - | - | - | - | - | - | - | - | - | - | | 5.5085 | 10400 | 8.571 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.5350 | 10450 | 8.5379 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.5614 | 10500 | 8.7081 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.5879 | 10550 | 8.5968 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.6144 | 10600 | 8.6551 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.6409 | 10650 | 8.7252 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.6674 | 10700 | 8.6626 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.6939 | 10750 | 8.5618 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.7203 | 10800 | 8.5806 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.7468 | 10850 | 8.6908 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.7733 | 10900 | 8.7022 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.7998 | 10950 | 8.6895 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.8263 | 11000 | 8.5434 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.8528 | 11050 | 8.498 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.8792 | 11100 | 8.5912 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.9057 | 11150 | 8.592 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.9322 | 11200 | 8.4532 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.9587 | 11250 | 8.4555 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 5.9852 | 11300 | 8.4535 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.0 | 11328 | - | 10.2169 | 0.5648 | 0.3165 | 0.5345 | 0.4719 | 0.6920 | - | - | - | - | - | - | - | - | - | - | | 6.0117 | 11350 | 8.4719 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.0381 | 11400 | 8.2625 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.0646 | 11450 | 8.2337 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.0911 | 11500 | 8.3047 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.1176 | 11550 | 8.0368 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.1441 | 11600 | 8.1572 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.1706 | 11650 | 8.2058 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.1970 | 11700 | 8.192 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.2235 | 11750 | 8.2659 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.25 | 11800 | 8.33 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.2765 | 11850 | 8.2533 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.3030 | 11900 | 8.2526 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.3294 | 11950 | 8.2337 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.3559 | 12000 | 8.1079 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.3824 | 12050 | 8.1821 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.4089 | 12100 | 8.1226 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.4354 | 12150 | 8.1514 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.4619 | 12200 | 8.1713 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.4883 | 12250 | 8.2378 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.5 | 12272 | - | 10.0649 | 0.5709 | 0.3053 | 0.5482 | 0.4748 | 0.6893 | - | - | - | - | - | - | - | - | - | - | | 6.5148 | 12300 | 8.0695 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.5413 | 12350 | 8.1986 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.5678 | 12400 | 8.1587 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.5943 | 12450 | 8.2557 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.6208 | 12500 | 8.1228 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.6472 | 12550 | 8.279 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.6737 | 12600 | 8.2151 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.7002 | 12650 | 8.1151 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.7267 | 12700 | 8.1898 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.7532 | 12750 | 8.1375 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.7797 | 12800 | 8.1242 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.8061 | 12850 | 8.2169 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.8326 | 12900 | 8.1749 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.8591 | 12950 | 8.2333 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.8856 | 13000 | 8.1724 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.9121 | 13050 | 8.2678 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.9386 | 13100 | 8.1103 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.9650 | 13150 | 8.1765 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 6.9915 | 13200 | 8.2413 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | **7.0** | **13216** | **-** | **9.9677** | **0.5732** | **0.3151** | **0.5376** | **0.4753** | **0.6907** | **-** | **-** | **-** | **-** | **-** | **-** | **-** | **-** | **-** | **-** | | 7.0180 | 13250 | 8.0602 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.0445 | 13300 | 7.9268 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.0710 | 13350 | 7.8492 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.0975 | 13400 | 7.873 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.1239 | 13450 | 7.8104 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.1504 | 13500 | 7.8069 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.1769 | 13550 | 7.8711 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.2034 | 13600 | 7.9415 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.2299 | 13650 | 7.8362 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.2564 | 13700 | 7.8548 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.2828 | 13750 | 8.0328 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.3093 | 13800 | 7.7839 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.3358 | 13850 | 8.0185 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.3623 | 13900 | 7.7499 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.3888 | 13950 | 7.7495 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.4153 | 14000 | 7.78 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.4417 | 14050 | 7.9537 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.4682 | 14100 | 7.7732 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.4947 | 14150 | 8.0151 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.5 | 14160 | - | 10.0770 | 0.5488 | 0.3023 | 0.5326 | 0.4612 | 0.6922 | - | - | - | - | - | - | - | - | - | - | | 7.5212 | 14200 | 7.9773 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.5477 | 14250 | 7.8529 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.5742 | 14300 | 7.8516 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.6006 | 14350 | 7.8392 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.6271 | 14400 | 7.8694 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.6536 | 14450 | 7.81 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.6801 | 14500 | 7.8135 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.7066 | 14550 | 7.8381 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.7331 | 14600 | 7.8274 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.7595 | 14650 | 7.8996 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.7860 | 14700 | 7.9521 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.8125 | 14750 | 7.8602 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.8390 | 14800 | 7.7991 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.8655 | 14850 | 7.8749 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.8919 | 14900 | 7.8526 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.9184 | 14950 | 7.9223 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.9449 | 15000 | 7.8085 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.9714 | 15050 | 7.7155 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 7.9979 | 15100 | 7.7716 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.0 | 15104 | - | 9.6655 | 0.5645 | 0.3178 | 0.5260 | 0.4695 | 0.6834 | - | - | - | - | - | - | - | - | - | - | | 8.0244 | 15150 | 7.676 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.0508 | 15200 | 7.6763 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.0773 | 15250 | 7.5887 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.1038 | 15300 | 7.6805 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.1303 | 15350 | 7.5132 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.1568 | 15400 | 7.667 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.1833 | 15450 | 7.6736 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.2097 | 15500 | 7.6701 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.2362 | 15550 | 7.6338 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.2627 | 15600 | 7.614 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.2892 | 15650 | 7.6809 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.3157 | 15700 | 7.5869 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.3422 | 15750 | 7.6026 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.3686 | 15800 | 7.591 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.3951 | 15850 | 7.6882 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.4216 | 15900 | 7.618 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.4481 | 15950 | 7.5739 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.4746 | 16000 | 7.6335 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.5 | 16048 | - | 9.7879 | 0.5581 | 0.3193 | 0.5175 | 0.4650 | 0.6900 | - | - | - | - | - | - | - | - | - | - | | 8.5011 | 16050 | 7.5868 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.5275 | 16100 | 7.6953 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.5540 | 16150 | 7.7118 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.5805 | 16200 | 7.7616 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.6070 | 16250 | 7.6488 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.6335 | 16300 | 7.699 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.6600 | 16350 | 7.6458 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.6864 | 16400 | 7.6268 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.7129 | 16450 | 7.6369 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.7394 | 16500 | 7.6545 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.7659 | 16550 | 7.6275 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.7924 | 16600 | 7.6688 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.8189 | 16650 | 7.5292 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.8453 | 16700 | 7.55 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.8718 | 16750 | 7.5569 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.8983 | 16800 | 7.6241 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.9248 | 16850 | 7.6759 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.9513 | 16900 | 7.57 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 8.9778 | 16950 | 7.7519 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.0 | 16992 | - | 9.6003 | 0.5645 | 0.3059 | 0.5305 | 0.4669 | 0.6859 | - | - | - | - | - | - | - | - | - | - | | 9.0042 | 17000 | 7.5168 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.0307 | 17050 | 7.411 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.0572 | 17100 | 7.4725 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.0837 | 17150 | 7.4097 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.1102 | 17200 | 7.4137 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.1367 | 17250 | 7.4579 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.1631 | 17300 | 7.574 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.1896 | 17350 | 7.5096 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.2161 | 17400 | 7.5514 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.2426 | 17450 | 7.4636 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.2691 | 17500 | 7.4688 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.2956 | 17550 | 7.4382 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.3220 | 17600 | 7.466 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.3485 | 17650 | 7.4373 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.375 | 17700 | 7.557 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.4015 | 17750 | 7.3284 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.4280 | 17800 | 7.4802 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.4544 | 17850 | 7.5567 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.4809 | 17900 | 7.4307 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.5 | 17936 | - | 9.6455 | 0.5686 | 0.3093 | 0.5271 | 0.4683 | 0.6879 | - | - | - | - | - | - | - | - | - | - | | 9.5074 | 17950 | 7.4396 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.5339 | 18000 | 7.4247 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.5604 | 18050 | 7.3861 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.5869 | 18100 | 7.4271 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.6133 | 18150 | 7.4533 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.6398 | 18200 | 7.5677 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.6663 | 18250 | 7.4843 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.6928 | 18300 | 7.3962 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.7193 | 18350 | 7.4636 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.7458 | 18400 | 7.5062 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.7722 | 18450 | 7.3998 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.7987 | 18500 | 7.4292 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.8252 | 18550 | 7.4717 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.8517 | 18600 | 7.4908 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.8782 | 18650 | 7.5568 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.9047 | 18700 | 7.5348 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.9311 | 18750 | 7.5515 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.9576 | 18800 | 7.4388 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 9.9841 | 18850 | 7.5025 | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | - | | 10.0 | 18880 | - | 9.6526 | 0.5673 | 0.3126 | 0.5328 | 0.4709 | 0.6870 | - | - | - | - | - | - | - | - | - | - | | -1 | -1 | - | - | 0.5732 | 0.3151 | 0.5376 | 0.5463 | 0.6907 | 0.2253 | 0.5830 | 0.8065 | 0.4752 | 0.7469 | 0.8581 | 0.3312 | 0.3878 | 0.7312 | 0.5304 | * The bold row denotes the saved checkpoint.
### Framework Versions - Python: 3.13.3 - Sentence Transformers: 5.1.0.dev0 - Transformers: 4.53.1 - PyTorch: 2.7.1+cu126 - Accelerate: 1.8.1 - Datasets: 3.6.0 - Tokenizers: 0.21.2 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### SpladeLoss ```bibtex @misc{formal2022distillationhardnegativesampling, title={From Distillation to Hard Negative Sampling: Making Sparse Neural IR Models More Effective}, author={Thibault Formal and Carlos Lassance and Benjamin Piwowarski and Stéphane Clinchant}, year={2022}, eprint={2205.04733}, archivePrefix={arXiv}, primaryClass={cs.IR}, url={https://arxiv.org/abs/2205.04733}, } ``` #### SparseMarginMSELoss ```bibtex @misc{hofstätter2021improving, title={Improving Efficient Neural Ranking Models with Cross-Architecture Knowledge Distillation}, author={Sebastian Hofstätter and Sophia Althammer and Michael Schröder and Mete Sertkan and Allan Hanbury}, year={2021}, eprint={2010.02666}, archivePrefix={arXiv}, primaryClass={cs.IR} } ``` #### FlopsLoss ```bibtex @article{paria2020minimizing, title={Minimizing flops to learn efficient sparse representations}, author={Paria, Biswajit and Yeh, Chih-Kuan and Yen, Ian EH and Xu, Ning and Ravikumar, Pradeep and P{'o}czos, Barnab{'a}s}, journal={arXiv preprint arXiv:2004.05665}, year={2020} } ```