ABSTRACT
La capacità di produzione continua nei moderni analizzatori, se non adeguatamente governata, può comportare che i risultati siano forniti ai clinici con un TAT (Turn Around Time) molto ridotto, ma anche con una accuratezza di misura più ipotizzata che effettivamente verificata, con l’imbarazzante eventualità del richiamo di molti risultati ritenuti, a posteriori, non corretti (vedi lo scandalo in USA della start-up“Theranos”, nel 2015). Infatti è la conoscenza dell’incertezza effettiva (esattezza e precisione) associata al risultato di un test che rende la misura clinicamente affidabile: incertezza che andrebbe dichiarata nei documenti del TQM, per chiunque ne faccia richiesta. Ma mentre l’esattezza si scontra ancora con la carenza di produttori e di materiali di riferimento certificati e commutabili, la stima della precisione ha storicamente rappresentato la “core competence” del Controllo Interno della Qualità Analitica (IQC), tramite l’analisi statistica di osservazioni ripetute di campioni di controllo commutabili in condizioni definite. Tuttavia, nonostante l’industria fornisca comode soluzioni preconfezionate per il monitoraggio di questo fondamentale parametro analitico, la scarsa flessibilità dei software commerciali generalisti a volte impedisce di gestire correttamente le situazioni organizzative e di “flusso” dei campioni meno comuni fornendo, di conseguenza, valutazioni dell’incertezza non aderenti alla realtà e poco utili ai fini del giudizio clinico. A tal riguardo, utilizzando il lessico internazionale della metrologia, in questo documento si esamineranno alcuni contesti di lavoro particolari ove la stima puntuale e aggiornata della precisione analitica evidenzia ancora criticità e lacune, proponendo qualche soluzione di facile implementazione nella pratica quotidiana.