SentenceTransformer based on sentence-transformers/all-MiniLM-L6-v2

This is a sentence-transformers model finetuned from sentence-transformers/all-MiniLM-L6-v2. It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: sentence-transformers/all-MiniLM-L6-v2
  • Maximum Sequence Length: 256 tokens
  • Output Dimensionality: 384 dimensions
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 256, 'do_lower_case': False, 'architecture': 'BertModel'})
  (1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("sentence_transformers_model_id")
# Run inference
sentences = [
    'que valores descontados de por caixa REPÓRTER: do Banco Itaú deve ser cinco ter os descontados causa diferença a responsabilidade . é da do Tribunal os descontos como escriturária desde 1992 a profissional função de uma, em Horizonte . instância acolheu o manuseio diário de diferenças caixa, risco deve pelo pelo empregado recorreu Regional do decisão . foi que uma concedida chamada gratificação de caixa . de adicional que tem objetivo de diferenças que, no contrato TST restabelecer, instância O relator Turma ministro Oliveira Costa que lícitos diante houve o que Com da Turma, bancária deve receber todos os descontados . Faça o ouça notícia sem cookies Mais',
    'null Banco Itaú terá que devolver valores descontados de uma empregada por diferenças no caixa 10.08.2015   REPÓRTER: Uma empregada do Banco Itaú deve ser ressarcida em cinco mil e 600 reais depois de ter os valores descontados diretamente na conta corrente por causa de diferença no caixa sob a responsabilidade dela. A decisão é da Primeira Turma do Tribunal Superior do Trabalho que considerou irregular os descontos salariais não autorizados. Contratada como escriturária desde 1992, a profissional exerce a função de caixa em uma agência do Itaú, em Belo Horizonte. Em primeira instância, a Justiça do Trabalho acolheu o pedido dela por considerar que o manuseio diário de dinheiro favorece o surgimento de diferenças no caixa, e o risco dessa atividade deve ser sempre assumido pelo empregador e não pelo empregado. O Itaú recorreu ao Tribunal Regional do Trabalho de Minas Gerais e conseguiu reverter a decisão. O argumento foi de que a bancária já tinha uma garantia concedida pela chamada "gratificação de caixa". Trata-se de um adicional que tem o objetivo de cobrir eventuais diferenças na contabilidade do caixa, que acabavam descontadas do empregado, conforme previsto no contrato de trabalho. A bancária recorreu ao TST e conseguiu restabelecer a sentença, de primeira instância. O relator do caso na Primeira Turma, ministro Walmir Oliveira da Costa, observou que os descontos só seriam lícitos diante da comprovação de que houve má-fé da trabalhadora, o que não se confirmou no processo. Com a decisão unânime da Turma, a bancária deve receber de volta todos os valores descontados pelo banco.   Reportagem, Carlos Balbino   Faça o download ou ouça a notícia:   Esse conteúdo não está disponível sem cookies.Aceitar cookies Mais detalhes',
    'MERCOSUR/CMC/DEC. Nº 46/07 GRUPO DE TRABAJO SOBRE PREVENCION DE PROLIFERACION DE ARMAS DE DESTRUCCION MASIVA (GTADM) VISTO: El Tratado de Asunción, el Protocolo de Ouro Preto, las Decisiones Nº 18/98, 23/03, 18/04 y 28/04 del Consejo del Mercado Común. CONSIDERANDO: Que el fortalecimiento de la dimensión política y social del MERCOSUR conlleva una mayor interrelación entre los Estados Parte a fin de consolidar y profundizar el proceso de integración. Que los Gobiernos de los Estados Parte y de la República de Bolivia y de la República de Chile declararon el 24 de julio de 1998 al MERCOSUR, Bolivia y Chile como Zona de Paz y Libre de Armas de Destrucción Masiva. Que es conveniente establecer un mecanismo de consulta periódica institucionalizado para abordar las cuestiones relativas a la prevención de proliferación de armas de destrucción masiva. EL CONSEJO DEL MERCADO COMUN DECIDE: Art. 1 — Crear el Grupo de Trabajo sobre Prevención de Proliferación de Armas de Destrucción Masiva (GTADM) en el ámbito del FCCP, que estará integrado por los órganos competentes en la materia en los Estados Parte. Los Estados Asociados podrán participar del Grupo de Trabajo en los términos de la Decisión CMC Nº 18/04. Art. 2 — El GTADM tendrá por finalidad facilitar el intercambio de información y eventual armonización de legislaciones sobre controles nacionales de bienes y tecnologías sensibles y uso dual para prevenir la proliferación de armas de destrucción masiva. Art. 3 — El GTADM presentará sus informes al Foro de Consulta y Concertación Política conforme a lo establecido en la Decisión CMC Nº 23/03. Art. 4 — Esta Decisión no necesita ser incorporada al ordenamiento jurídico de los Estados Parte, por reglamentar aspectos de la organización o del funcionamiento del MERCOSUR. XXXIV CMC - Montevideo, 17/XII/07',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities)
# tensor([[1.0000, 0.9793, 0.1498],
#         [0.9793, 1.0000, 0.1803],
#         [0.1498, 0.1803, 1.0000]])

Training Details

Training Dataset

Unnamed Dataset

  • Size: 72,304 training samples
  • Columns: sentence_0 and sentence_1
  • Approximate statistics based on the first 1000 samples:
    sentence_0 sentence_1
    type string string
    details
    • min: 13 tokens
    • mean: 196.66 tokens
    • max: 256 tokens
    • min: 48 tokens
    • mean: 233.18 tokens
    • max: 256 tokens
  • Samples:
    sentence_0 sentence_1
    MERCOSUR/CMC/DEC Nº TRABAJO DE () VISTO:,, Decisiones, 18/04 y 28/04 del Mercado Común . CONSIDERANDO el de y social del una mayor interrelación Estados Parte de consolidar integración Que de los la República de 24 julio al MERCOSUR Zona de Paz Libre de Masiva de consulta periódica para las relativas prevención de proliferación de destrucción masiva . COMUN DECIDE: Art Crear el sobre Prevención Proliferación Masiva) en el ámbito del por los en la en . podrán del Trabajo la Decisión 18/04 2 — por y controles tecnologías uso de destrucción masiva Art . — Foro de y Concertación la Nº 23/03 . al jurídico de Estados organización funcionamiento. MERCOSUR/CMC/DEC. Nº 46/07 GRUPO DE TRABAJO SOBRE PREVENCION DE PROLIFERACION DE ARMAS DE DESTRUCCION MASIVA (GTADM) VISTO: El Tratado de Asunción, el Protocolo de Ouro Preto, las Decisiones Nº 18/98, 23/03, 18/04 y 28/04 del Consejo del Mercado Común. CONSIDERANDO: Que el fortalecimiento de la dimensión política y social del MERCOSUR conlleva una mayor interrelación entre los Estados Parte a fin de consolidar y profundizar el proceso de integración. Que los Gobiernos de los Estados Parte y de la República de Bolivia y de la República de Chile declararon el 24 de julio de 1998 al MERCOSUR, Bolivia y Chile como Zona de Paz y Libre de Armas de Destrucción Masiva. Que es conveniente establecer un mecanismo de consulta periódica institucionalizado para abordar las cuestiones relativas a la prevención de proliferación de armas de destrucción masiva. EL CONSEJO DEL MERCADO COMUN DECIDE: Art. 1 — Crear el Grupo de Trabajo sobre Prevención de Proliferación de Armas de Destrucción Masiva (GTADM...
    FEDERAL DE INGRESOS Resolución Organismos Certificación y personas registradas . As. la del corriente NACIONAL, en SIGEA mediante la cual actualiza la información por Nota Nº 3483 del Organismos acreditados personas certificados, el marco Resolución 138/95, motivo suspensión 676/99 ex En oportunidad se al dictado Externa del 26 de de 2006 DIRECCION GENERAL ADUANAS y considerando que se exigencia de certificación para el mismo requerido la de de para Nota los el ENARGAS y las personas certificados los de, los ensayos pertinentes . En productos sin el asume de depositario fiel de las en del artículo 263 del Código . indicar, de características permitan identificar productos la cantidad el lugar guarda la estas situaciones el de "", debiendo certificado respectivo momento del de las mercaderías estos, Organismo remitir a la de de del interior en un (días corridos de ingresada la mercadería el de aprobación la comunicación Cuando la de Organismos certificantes objetivo el Aduanero la inmed... ADMINISTRACION FEDERAL DE INGRESOS PUBLICOS Nota Externa Nº 71/2008 Resolución ENARGAS Nº 138/95. Organismos de Certificación acreditados y personas registradas. Bs. As., 28/8/2008 VISTO la Nota Nº 5026 del 24 de junio del corriente, del ENTE NACIONAL REGULADOR DEL GAS, recaída en Actuación SIGEA Nº 12048-721-2008, mediante la cual se actualiza la información suministrada por Nota Nº 3483 del 7 de junio de 2006 del citado Ente, respecto a los Organismos acreditados y las personas habilitadas para firmar los certificados de aprobación, en el marco de la Resolución ENARGAS Nº 138/95, con motivo de la suspensión de la Resolución Nº 676/99 ex SICyM. En su oportunidad se procedió al dictado de la Nota Externa Nº 22 del 26 de junio de 2006 de esta DIRECCION GENERAL DE ADUANAS y considerando que se mantiene la exigencia de certificación de productos de gas para las mercaderías detalladas en el Anexo II de la Resolución ENARGAS Nº 138/95, y el mismo es requerido para la oficialización de las r...
    principais de 26/01) da do todo Edição – No Trabalho e vai saber entidades que aeroviárias, aeronautas e aeroviários quarta-feira dia 27 a parcelas O Tribunal realizou contou com foi pelo Superior, Ives Martins O programa decisão da Turma da Federal que cálculo do da gratificação a da desempenham multiplicidade comissionados há . decisão imposta pelo TRT, a última função desempenhada . a Turma do Tribunal Superior do rejeitou um de no Rio Sul que reais Para Turma era risco por isso indenização, previsto 927 Civil . download o programa Esse conteúdo não está disponível sem cookies.Aceitar cookies Trabalho e ao ar Justiça às 10h50 . e Justiça - 104,7 null Trabalho e Justiça - Confira as principais notícias de hoje (26/01) da Justiça do Trabalho de todo o Brasil Edição 326 26/01 – No Trabalho e Justiça desta terça-feira você vai saber que entidades que representam empresas aeroviárias, aeronautas e aeroviários vão decidir até quarta-feira, dia 27, a data em que serão pagas as parcelas do reajuste salarial. O Tribunal Superior do Trabalho realizou a audiência, que contou com federações e sindicatos e foi mediada pelo vice-presidente do Tribunal Superior do Trabalho, ministro Ives Gandra Martins Filho. O programa traz ainda decisão da Quarta Turma do TST que aceitou o recurso da Caixa Econômica Federal e determinou que seja observado o cálculo do valor da gratificação a empregados da instituição que desempenham multiplicidade de cargos comissionados há 10 anos ou mais. A decisão reforma condenação imposta pelo TRT da Paraíba à Caixa, que obrigava a incorporação do valor integral da última gratificação de função desempenhada. E...
  • Loss: DenoisingAutoEncoderLoss

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • multi_dataset_batch_sampler: round_robin

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 16
  • per_device_eval_batch_size: 16
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.0
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • parallelism_config: None
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch_fused
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: None
  • hub_always_push: False
  • hub_revision: None
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • include_for_metrics: []
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • use_liger_kernel: False
  • liger_kernel_config: None
  • eval_use_gather_object: False
  • average_tokens_across_devices: False
  • prompts: None
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: round_robin
  • router_mapping: {}
  • learning_rate_mapping: {}

Training Logs

Epoch Step Training Loss
0.1106 500 8.0022
0.2213 1000 4.997
0.3319 1500 3.9319
0.4426 2000 3.3787
0.5532 2500 3.0777
0.6639 3000 2.9193
0.7745 3500 2.7792
0.8852 4000 2.6859
0.9958 4500 2.5907
1.1064 5000 2.5266
1.2171 5500 2.4622
1.3277 6000 2.4334
1.4384 6500 2.3633
1.5490 7000 2.3458
1.6597 7500 2.3477
1.7703 8000 2.3084
1.8809 8500 2.2824
1.9916 9000 2.2829
2.1022 9500 2.2291
2.2129 10000 2.2406
2.3235 10500 2.2037
2.4342 11000 2.2304
2.5448 11500 2.1875
2.6555 12000 2.2014
2.7661 12500 2.1975
2.8767 13000 2.185
2.9874 13500 2.1807

Framework Versions

  • Python: 3.9.21
  • Sentence Transformers: 5.1.0
  • Transformers: 4.56.1
  • PyTorch: 2.8.0+cu128
  • Accelerate: 1.10.1
  • Datasets: 4.1.1
  • Tokenizers: 0.22.0

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

DenoisingAutoEncoderLoss

@inproceedings{wang-2021-TSDAE,
    title = "TSDAE: Using Transformer-based Sequential Denoising Auto-Encoderfor Unsupervised Sentence Embedding Learning",
    author = "Wang, Kexin and Reimers, Nils and Gurevych, Iryna",
    booktitle = "Findings of the Association for Computational Linguistics: EMNLP 2021",
    month = nov,
    year = "2021",
    address = "Punta Cana, Dominican Republic",
    publisher = "Association for Computational Linguistics",
    pages = "671--688",
    url = "https://arxiv.org/abs/2104.06979",
}
Downloads last month
5
Safetensors
Model size
22.7M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kevmansilla/sentence-embeddings

Finetuned
(586)
this model