DACNova – Model Card

Logo di DACNova

DACNova è un modello linguistico conversazionale di scala intermedia (~400M parametri) sviluppato da M.INC. Research come parte della Little DAC Collection. Il modello è progettato per offrire un equilibrio ottimale tra coerenza conversazionale, capacità di ragionamento e efficienza computazionale, rendendolo adatto a contesti edge e sistemi con risorse limitate.


Model Details

  • Nome del modello: DACNova
  • Tipologia: Transformer decoder-only autoregressivo
  • Parametri: ~400M
  • Dominio: Conversational AI / Instruction Following
  • Obiettivo: Rispondere a istruzioni e conversazioni multi-turno in maniera coerente e affidabile
  • Architettura: Decoder-only Transformer con attenzione autoregressiva ottimizzata

Training Data

DACNova è stato addestrato su dataset proprietari curati da M.INC. Research, focalizzati su:

  • Linguaggio naturale generale
  • Conversazioni multi-turno
  • Dati strutturati per l’addestramento istruttivo (instruction following)

Nota: I dettagli completi dei dataset e della pipeline di training non sono pubblici.


Intended Use

  • Assistenti conversazionali intelligenti
  • Sistemi di Q&A o tutor virtuali
  • Applicazioni on-device o edge con vincoli di latenza

Limitations & Biases

  • DACNova è un modello di scala intermedia: può avere limiti su ragionamenti complessi o multi-step rispetto ai modelli più grandi.
  • Può riflettere bias presenti nei dati di addestramento proprietari.
  • Non è progettato per uso medico, legale o decisionale critico senza supervisione umana.

Ethical Considerations

  • Utilizzo responsabile in applicazioni commerciali o pubbliche.
  • Evitare la generazione di contenuti offensivi, illegali o discriminatori.
  • La modellazione è destinata esclusivamente a scenari di conversazione e istruzione.

Evaluation

  • Coerenza conversazionale su dialoghi multi-turno: elevata
  • Ragionamento base (logica e deduzioni semplici): buona
  • Efficienza di inferenza: ottimizzata per contesti a risorse limitate

Risultati preliminari dettagliati nel whitepaper DACNova


Usage

from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("Mattimax/DACNova")
model = AutoModelForCausalLM.from_pretrained("Mattimax/DACNova")

prompt = "Spiegami in breve la differenza tra IA e ML."
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0]))

Links & References


License

Distribuito sotto Licenza MIT. Per dettagli sull’uso commerciale o accesso completo ai materiali, fare riferimento al repository ufficiale.

Downloads last month
11
Safetensors
Model size
0.4B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Mattimax/DACNova

Quantizations
1 model

Datasets used to train Mattimax/DACNova

Collection including Mattimax/DACNova