MiniLM_ISSIBSNFSe_V1-0: AUDIA (Reforma Tributária & NFS-e)

Este é um modelo de Sentence Transformer fine-tuned (ajustado) a partir do paraphrase-multilingual-MiniLM-L12-v2.

Ele foi treinado especificamente para compreender a semântica e a lógica jurídica da Reforma Tributária Brasileira do Consumo (IBS/CBS), o sistema legado (ISS/LC 116) e o layout técnico da NFS-e Nacional (NT 005).

Uso e Aplicações

Este modelo mapeia frases e parágrafos para um espaço vetorial denso de 384 dimensões. Ele é ideal para tarefas de:

  • RAG (Retrieval-Augmented Generation): Busca semântica em bases de legislação tributária.
  • Auditoria Fiscal Automatizada: Comparação entre descrições de notas fiscais e a regra matriz de incidência.
  • Classificação de Regime: Distinção automática entre regras do ISS (Origem) e IBS (Destino).
  • Assistente de Developers: Mapeamento de linguagem natural para tags XML da NFS-e.

Exemplo de Uso (Sentence-Transformers)

from sentence_transformers import SentenceTransformer
from sentence_transformers import util

# 1. Carregar o Modelo
model = SentenceTransformer("MacedoR/MiniLM_ISSIBSNFSe_V1-0")

# 2. Definir Pergunta e Base de Conhecimento
query = "Onde o imposto é devido no novo sistema?"
docs = [
    "ISS (LC 116): O imposto é devido no local do estabelecimento prestador (Origem).",
    "IBS (LC 214): O imposto é devido no local de entrega ou consumo (Destino).",
    "A alíquota máxima é de 5%."
]

# 3. Codificar e Buscar
query_emb = model.encode(query)
doc_embs = model.encode(docs)

scores = util.dot_score(query_emb, doc_embs)[0].cpu().tolist()

# Combinar resultados
doc_score_pairs = list(zip(docs, scores))
doc_score_pairs = sorted(doc_score_pairs, key=lambda x: x[1], reverse=True)

for doc, score in doc_score_pairs:
    print(f"{score:.4f} | {doc}")
# Resultado esperado: Alta similaridade com a regra do IBS (Destino).
Detalhes do Treinamento
O modelo passou por um treinamento supervisionado focado na RMIT (Regra-Matriz de Incidência Tributária). Diferente de modelos genéricos, ele entende que "Localidade" pode significar coisas opostas dependendo da lei (LC 116 vs LC 214).

Dataset de Treino
O corpus de treinamento incluiu pares semânticos (Pergunta/Conceito) cobrindo:

Transição de Mentalidade:

De: Origem (Estabelecimento Prestador) -> Para: Destino (Local do Consumo).

De: Cálculo por dentro -> Para: Cálculo por fora.

Layout Técnico (NFS-e Nacional):

Compreensão de tags XML como cLocalidadeIncid, cIndOp, vTotNF.

Interpretação da Nota Técnica 005 (NT 2024.001).

Lógica Jurídica:

Antecedente (Critério Material e Espacial).

Consequente (Critério Pessoal e Quantitativo).

Hiperparâmetros
Base Model: sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2

Loss Function: CosineSimilarityLoss

Epochs: 20 (com early stopping simulado)

Batch Size: 4

Max Sequence Length: 128 tokens

## Performance
Em testes de validação controlada, o modelo demonstrou alta confiança na distinção de conceitos ambíguos:

Identificação de Conceitos RMIT: > 91% de similaridade.

Diferenciação ISS vs IBS: > 93% de similaridade.

Tradução Técnica (Sigla -> Conceito): > 95% (ex: DPS -> Declaração de Prestação de Serviço).

## Limitações
Consultoria Legal: Este modelo é uma ferramenta de busca e associação semântica. Não substitui o parecer de um advogado ou contador.

Corte Temporal: O conhecimento está limitado às Notas Técnicas e Leis Complementares disponíveis até a data do treinamento (Dezembro/2025).

Citação
Se utilizar este modelo em sua aplicação fiscal, cite o repositório:

@misc{MacedoR-MiniLM-Fiscal,
  author = {MacedoR},
  title = {MiniLM_ISSIBSNFSe_V1-0: AUD_IA},
  year = {2025},
  publisher = {Hugging Face},
  journal = {Hugging Face Repository},
  howpublished = {\url{[https://huggingface.co/MacedoR/MiniLM_ISSIBSNFSe_V1-0](https://huggingface.co/MacedoR/MiniLM_ISSIBSNFSe_V1-0)}}
}
Downloads last month
24
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for MacedoR/MiniLM_ISSIBSNFSe_V1-0