I dati amano la complessità

Che il pensiero scientifico si fondi sui dati è persino un’ovvietà; come molte ovvietà, però, può valere la pena di indagarla un po’ più a fondo, se non altro perché la scienza, come abbiamo visto, si occupa soprattutto delle regolarità, di ciò che accade normalmente, persino di ciò che è – o, meglio, sembra – ovvio. La scienza, dunque, parte dai dati, tanto che la qualità delle sue conclusioni dipende, in primo luogo, da quella dei dati di partenza; da qui deriva l’importanza delle pratiche di raccolta, gestione e campionatura di questi elementi così essenziali.

Ma i dati sono scienza, per usare una celebre distinzione di matrice aristotelica, soltanto in potenza: per tradurli in atto, occorre un altro insieme di pratiche, che li analizzi, interpreti e metta in relazione. Uno dei rischi più tipici è quello del feticismo dei dati, che li assolutizza e li esibisce come fossero verità definitive e non, piuttosto, punti di partenza per una disamina rigorosa e trasparente. 

Dal dato si parte per elaborare un modello o formulare un’ipotesi, al dato si torna per verificarla: il primo e più stringente criterio di una teoria rigorosa, infatti, è la falsificabilità, ossia l’indicazione dei dati che, contraddicendola, potrebbero invalidarla. Così, per esempio, una previsione sullo sviluppo di questa epidemia definisce un valore atteso del parametro R0, ricavato dall’evoluzione osservabile nel numero dei casi registrati, ossia dai dati che ci si aspetta di trovare. Se il parametro non rientra entro l’intervallo di dati previsto, allora la previsione è falsificata. In altre parole, la scienza usa i dati perché non fornisce, come ha malamente detto di recente un esponente del nostro governo, “certezze inconfutabili”, ma, al contrario teorie confutabili.

Proprio per questo, d’altra parte, bisogna assumersi la responsabilità di elaborare teorie e previsioni, di dire la propria: quando il nostro lavoro è fatto come si deve, potremmo forse fare previsioni sbagliate, ma saremmo in grado di capire l’errore e forse di correggerlo. È così che si fa avanzare la conoscenza e che ci si difende dalla paura, anche dalla più elementare di tutte, la paura di sbagliare. Nel nostro piccolo, elaboriamo modelli, costruiamo interpretazioni, avanziamo proposte, facciamo previsioni: l’articolo di Andrea Palladino che analizza l’efficacia del nostro modello predittivo rispetto ai dati reali è un esempio di questo lavoro e del suo continuo confronto con i dati.

Un altro errore tipico prodotto dal feticismo dei dati è la semplificazione dei fenomeni, per cui si sceglie un unico dato e lo si elegge a chiave di lettura universale. Per esempio, il numero di casi attualmente positivi è senz’altro un ottimo riferimento per capire come sta andando l’epidemia e del grado di sollecitazione a cui sono sottoposte le strutture sanitarie. Ma questo dato, in apparenza così elementare, è la risultante di altri quattro dati precedenti:

  • i casi positivi registrati in precedenza, ossia le dimensioni dell’epidemia, a cui si sommano
  • i nuovi casi positivi, che indicano l’infettività dei singoli casi e dunque l’efficacia della profilassi. Da questa somma vanno sottratte
  • le guarigioni, che ci indicano l’efficacia delle terapie, e dunque la capacità del sistema sanitario di gestire i casi e risolvere i problemi, nonché
  • i decessi, che ovviamente indicano la gravità della patologia e che rappresentano altrettante sconfitte del sistema sanitario.

Il punto è che, se la relazione tra questi dati è relativamente semplice, per valutarli è necessario approfondire la conoscenza dei processi reali da cui derivano. Così, per esempio:

  • un abbassamento dei nuovi casi può essere dovuto alla mancata diagnosi, magari perché ci si concentra su focolai noti e in via di attenuazione, mentre se ne trascurano altri, potenzialmente anche più virulenti. Allo stesso modo, un loro innalzamento può indicare una maggiore efficienza diagnostica;
  • anche un alto numero di guarigioni può derivare da fattori irregolari, come dimissioni affrettate, particolari caratteristiche demografiche (pazienti giovani e relativamente sani) che possono modificarsi in fasi successive peggiorando il quadro, o semplicemente da uno sforzo sanitario molto intenso ma non sostenibile per periodi prolungati.

Anche nei casi in cui i processi siano stabili e affidabili, con un monitoraggio altamente efficiente dei nuovi casi, un sistema diagnostico e terapeutico ben rodati e sostenibili e una popolazione dalle caratteristiche complessivamente costanti, il rapporto tra i fattori che producono il dato finale del numero degli infetti attivi va determinato con molta cura. Infatti, se gli infetti attivi scendono più per il numero elevato delle guarigioni che per la riduzione dei nuovi casi, come sta accadendo in Germania, è opportuno prestare molta attenzione.

In questo senso, la cautela, con cui il governo tedesco sta valutando i risultati certamente lusinghieri della sua sofisticata strategia sanitaria, sembra decisamente ben fondata. La Kanzlerin, che ha indubbiamente una solida preparazione scientifica ed è evidentemente ben consigliata, ha infatti colto la fragilità di questo successo: se oggi i casi attivi sono in netta diminuzione, i numeri non sono tali da escludere un possibile incremento delle infezioni nel caso in cui le misure di profilassi (in particolare il distanziamento sociale, che comunque lì è meno stringente che altrove) dovessero venire allentate in modo affrettato o eccessivo. Semmai, diventa possibile modularle a partire dai risultati ottenuti e passare da una fase, per così dire, di emergenza, nella quale i casi vengono affrontati quando si manifestano, a una di sorveglianza, in cui si concentrano gli sforzi sui focolai di infezione e sui cosiddetti cluster: in altre parole, vista l’efficacia delle terapie, ci si dedica a far diminuire i casi.
Al di là del caso specifico, questo esempio mostra in che modo la lettura e l’interpretazione dei dati siano al centro di un processo complesso e continuo, in cui si passa dalla comprensione dei fenomeni alla elaborazione della strategia per gestirli, fino alla valutazione della sua efficacia e alla correzione delle misure adottate. La complessità è una caratteristica fondamentale della realtà e i dati ci permettono di comprenderla e gestirla, trasformandola in un moltiplicatore delle risorse; ma, se non abbiamo una vera cultura dei dati e del metodo scientifico, può divenire un problema insormontabile e spingerci a cercare scorciatoie che non risolvono nulla.

Questa cultura dei dati serve ha un’altra funzione fondamentale: quella di costruire una base comune per diverse discipline e prospettive, in modo da osservare la complessità del reale da tutte le angolazioni. Un’altra distorsione tipica, strettamente collegata a quel feticismo dei dati di cui si diceva più sopra, è il feticismo delle competenze, per cui tutto viene chiuso a compartimenti stagni e la disciplina più attrezzata a leggere un dato è anche la sola autorizzata a interpretarlo e a formare teorie e proposte su questa base. In CoVstat_IT siamo di un altro avviso: se abbiamo una base ben solida nell’analisi dei dati statistici, questa è appunto la base. Da qui, da questi dati e dalla loro lettura scientifica, cerchiamo di chiamare a raccolta diverse capacità per avere un quadro dettagliato di quello che succede, in tutte le sue dimensioni: ecco allora un articolo sulla ratio delle politiche pubbliche durante l’emergenza, uno sui nuovi ruoli e i nuovi attori globali che possono emergere dalla crisi, un ambizioso pezzo sui problemi dell’attuale modello economico e i punti sui cui è necessario intervenire. E poi, un’analisi di come si sta comportando il nostro modello, una nuova puntata del confronto internazionale e un importante intervento sulla riorganizzazione della medicina generale per rispondere all’epidemia.

Vogliamo continuare così e stiamo raccogliendo altre collaborazioni, che nei prossimi giorni ci aiuteranno a vedere le cose ancora più in profondità. Perché la complessità non è un nemico, ma il principale motore della conoscenza: per saperla leggere, bisogna solo essere curiosi, inquieti, aperti.

Info Autore
Chief of Strategy , Tombolini & Associati
Ho studiato filosofia alla Sapienza (tesi su Hegel, dottorato su Husserl, qualche pubblicazione qua e là) e, fin dai miei ultimi anni da studente, lavoro nella comunicazione e nell’analisi strategica. Adesso faccio queste cose con Tombolini & Associati, di cui sono socio e partner.
×
Chief of Strategy , Tombolini & Associati
Ho studiato filosofia alla Sapienza (tesi su Hegel, dottorato su Husserl, qualche pubblicazione qua e là) e, fin dai miei ultimi anni da studente, lavoro nella comunicazione e nell’analisi strategica. Adesso faccio queste cose con Tombolini & Associati, di cui sono socio e partner.
Latest Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ridimensiona font
Contrasto