chat_noir-24b-v3 / README.md
VirtuoTuring's picture
Update README.md
8b120a1 verified
metadata
license: other
license_name: virtuo
license_link: https://justina.cloud/licenses_models/virtuo/virtuo_1_0.txt
language:
  - pt
base_model:
  - virtuoturingai/chat_noir-24b
  - mistralai/Mistral-Small-24B-Instruct-2501
pipeline_tag: text-generation
library_name: transformers
tags:
  - portuguese
  - português
  - PT-PT
  - português-europeu
  - direito
  - jurídico
  - chat
  - legaltech
  - virtuo-turing
  - cláudia-gil
  - octávio-viana
  - chat_noir
  - uncensored
  - instruction-following
  - portugal

chat_noir-24b-v3 — Tensors (Virtuo Turing)

🇬🇧 Overview

v3 adds stronger instruction following and better generalisation. v1/v2 leaned to shallow learning and memorisation. v3 targets Portuguese legal comprehension and Portugal-specific topics, including public figures.

What changed in v3

  • Larger and more diverse instruction curriculum with reasoning tasks.
  • Heavier legal mix: CPC, CPP, Constitutional Court, TR/STA/STJ, CJEU, ECtHR.
  • Lower overfitting and less prompt echo via objectives and regularisation.
  • Crisper answers. Citations when requested.
  • More robust out of domain.

Architecture and format

  • Base: Mistral-Small-24B-Instruct-2501.
  • Continuation over chat_noir-24b-v2 with a new fine-tuning cycle.
  • LoRA merged into base weights. Release as full tensors (Transformers).
  • Quantisation is downstream and optional.

Recommended use

  • PT-PT legal Q&A, short drafts, concise summaries.
  • Portuguese context: statutes, agencies, case-law, public personalities.
  • Starter config: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Tune per task.

Limits

  • Context window ~4k tokens. Not long-context.
  • May produce factual errors without external verification. Check sources.
  • Not legal advice.

License

Virtuo 1.0. Use and redistribution with attribution to Virtuo Turing – Artificial Intelligence, S.A. See the license link.

Credits

Developed by Virtuo Turing – Artificial Intelligence, S.A. with Octávio Viana.
Base architecture © Mistral AI (Apache-2.0).

chat_noir-24b-v3 — Tensors (Virtuo Turing)

Sumário

v3 apresenta treinos mais robustos, melhor seguimento de instruções e maior capacidade de generalização. v1/v2 tinham aprendizagem mais superficial e tendência à memorização. v3 foi preparado para compreensão jurídica em PT-PT e para temas ligados a Portugal, incluindo personalidades portuguesas.

O que mudou no v3

  • Currículo de instruções alargado e mais variado, com tarefas de raciocínio.
  • Mix jurídico reforçado (CPC, CPP, jurisprudência TR/STA/STJ, Tribunal Constitucional, TJUE/TEDH).
  • Menos overfitting e menor eco de prompt através de objetivos e regularização.
  • Respostas mais concisas e orientadas a citação quando solicitado.
  • Maior robustez a pedidos fora do domínio estrito do treino.

Arquitetura e formato

  • Base: Mistral-Small-24B-Instruct-2501.
  • Continuação sobre chat_noir-24b-v2 com novo ciclo de fine-tuning.
  • LoRA fundida nos pesos. Publicação em tensores (Transformers).
  • Quantizações a cargo do utilizador conforme necessidade.

Uso recomendado

  • Q&A jurídico PT-PT, minutas curtas, sínteses com referências.
  • Contexto português: legislação, entidades, jurisprudência e figuras públicas.
  • Ponto de partida para geração: max_new_tokens=400, temperature=0.2, top_p=0.9, do_sample=true. Ajustar a formalidade e comprimento por tarefa.

Limitações

  • Janela de contexto ~4k tokens. Não é long-context.
  • Pode produzir erros factuais sem verificação externa. Confirme fontes.
  • Não constitui aconselhamento jurídico. Uso informativo.

Licença

Virtuo 1.0. Uso e redistribuição com atribuição a Virtuo Turing – Artificial Intelligence, S.A. Consulte o ficheiro de licença no link acima.

Créditos

Desenvolvido por Virtuo Turing – Artificial Intelligence, S.A. com Octávio Viana.
Arquitetura de base © Mistral AI (Apache-2.0).