Con questo editoriale arriviamo alla terza occasione per una riflessione sulla manutenzione predittiva stimolata dalla domanda (già utilizzata nelle puntate precedenti): “quale è la novità portata nel quadro dell’Industria 4.0 per la manutenzione predittiva?”. Continuiamo perché la manutenzione predittiva in salsa 4.0 è ricca di argomentazioni – di natura tecnica, tecnologica, ingegneristica e gestionale –, ed è quindi difficile esaurire la discussione nei limiti di poche battute.
Parlare di manutenzione predittiva, lo sappiamo, non è una novità. Si è sviluppata attraverso una storia importante, basti pensare ai primi anni in cui le tecniche diagnostiche “classiche” furono industrializzate. Oggigiorno, la manutenzione predittiva può sfruttare il trampolino di lancio offerto dall’evoluzione tecnologica dell’Industria 4.0, e anche questo lo sappiamo per effetto dello stato di euforia legato alle nuove tecnologie. Tra le tecnologie dell’Industria 4.0, in questo editoriale concentrerò l’attenzione sulle tecniche per fare (big) data analytics. Tali tecniche sono varie e molteplici, e sono sfruttabili per migliorare la conoscenza sui processi industriali e sui processi di degrado degli asset in diverse condizioni operative. Ma è questa una vera novità? Non proprio, se non che al giorno d’oggi si può prospettare un utilizzo più sistematico, diffuso e capillare dell’analytics per la manutenzione predittiva.
Tale prospettiva è favorita dall’offerta tecnologica che garantisce una maggiore accessibilità alle tecniche di data analytics: è facile, per esempio, osservare che tali tecniche sono oggi proposte da più vendor del settore dell’Information Technology (IT) come una parte integrante di piattaforme dotate di funzionalità di data management e di capacità computazionali. Nelle piattaforme, in aggiunta a servizi IT di base (ad es., per l’integrità e la protezione del dato), si offrono sia librerie di tecniche di data analytics, sia ambienti di sviluppo e di gestione nel quale i diversi algoritmi/modelli possono essere creati, operati e mantenuti, quindi gestiti nel loro ciclo di vita (ndr, per un’azienda, algoritmi/modelli sono anch’essi asset che generano valore e che hanno un proprio ciclo di vita, a partire dagli asset fisici).
Le tecniche di data analytics che troviamo nelle piattaforme sono nate originariamente in diversi domini disciplinari. Cito i domini principali, quelli che meglio conosco e che hanno un maggior numero di referenze per l’impiego in ambito manutentivo: il dominio della computer science e, più precisamente, dell’intelligenza artificiale (artificial intelligence, AI) – un ramo della computer science dedicato allo sviluppo di sistemi di data processing che svolgono funzioni normalmente associate all’intelligenza umana, come il reasoning e il learning; il dominio della statistica, che permette di disporre di altrettante valide tecniche impiegabili sia per estrarre informazioni dai dati utili per fini predittivi (in tal senso, le tecniche della statistica sono assimilabili alle tecniche dell’AI), sia per condurre le prime e le ultime fasi dell’intero processo di sviluppo e test dei modelli/algoritmi di data analytics (ad es., nelle prime fasi, per avere sensibilità sulla distribuzione e sulla “pulizia” dei dati o, nelle ultime fasi, a supporto dei necessari test per valutare la confidenza statistica delle stime predittive).
Sono, quindi, tante le tecniche impiegabili per fare data analytics: ben venga l’offerta di vendor IT che ne permettono una fruizione accessibile in librerie e ambienti di lavoro appositi, utili per gestire la varietà. Questo è però solamente un punto di partenza: parliamo di tecniche che vanno ad aggiungersi alle tecniche della più “classica” diagnostica industriale; e sono pur sempre tecniche che meritano opportune competenze ingegneristiche per ottenerne un uso efficace ed efficiente. Perché? Qui di seguito, sottolineo due ragioni principali.
1. La gestione della varietà delle tecniche di data analytics non è semplice perché ciascuna tecnica ha le sue caratteristiche, ed esistono proprietà e prestazioni in trade-off per cui è giocoforza necessario procedere con un addestramento di più modelli/algoritmi creati da più tecniche (ndr, si parla di supervised o unsupervised learning, a seconda dei casi) per identificare quelli che meglio si comportano nel contesto dati (e, quindi, nel processo/asset industriale) studiato. I tentativi sino ad oggi fatti per definire framework capaci di mappare generalmente proprietà e prestazioni delle diverse tecniche, per supportarne la scelta in funzione degli ambiti d’impiego, sono ancora parziali e/o non convincenti. Al contrario, mi pare più promettente l’utilizzo dinamico delle tecniche che, riaddestrate con l’evolvere dei fenomeni studiati (quindi, della vita dei processi e degli asset industriali), sono impiegate in maniera selettiva in determinati periodi d’utilizzo e per definiti orizzonti di previsione.
2. L’approccio black-box, guidato dai dati di un processo (i.e. è il naturale approccio sotteso alle tecniche di data analytics), non è sufficiente. Manca di quella che alcuni definiscono l’“arte” della creatività, che arriva da chi ha esperienza e conoscenza ingegneristica delle tecnologie e dei processi industriali, e delle leggi fisiche che regolano il funzionamento degli asset e il loro degrado. L’“arte” è di assoluto valore per guidare lo sviluppo del data analytics verso le feature “chiave” dei processi. Anche se sono imperfette, esperienze e conoscenze di processo sono, quindi, ancora importanti per un’azienda che possiede i suoi asset, piuttosto che per il costruttore che li progetta: rimangono un patrimonio che deve essere valorizzato assieme alle potenzialità dovute al crescente uso di sensori (anche sensori smart) e di macchinari e impianti connessi, e alla capacità di analitycs di grandi volumi di dati.
Per diverse ragioni, comprese quelle poco fa citate, consiglierei un approccio più equilibrato all’innovazione della manutenzione predittiva. Sono convinto, e per questo lo metto nero su bianco, che, se si esagera con la credenza dell’“intelligenza” superiore (!?!) delle tecniche di (big) data analytics unitamente all’eccessiva spinta all’approccio black-box, si rischia di prendere abbagli perdendo, nel migliore dei casi, del tempo nella ricerca di feature e pattern per la predizione, senza poi essere in grado di comprenderli a fondo.
Riportando al centro la conoscenza del processo e dell’asset industriale, le tecniche di (big) data analytics diventeranno un bagaglio fondamentale per fare manutenzione predittiva in salsa 4.0. In questa prospettiva, sottolineo anche la potenziale ricaduta di natura organizzativa: l’arma vincente, oggi, è la multidisciplinarità. Come ho visto dal confronto nell’Osservatorio TeSeM, alcune aziende, che possiedono asset industriali e che hanno intrapreso il percorso verso la Manutenzione/Industria 4.0, hanno pensato alla presenza di un data scientist accanto alla solida base di conoscenza portata dagli esperti di progettazione e gestione dei processi e degli asset industriali, con l’evidente risultato di una serie di applicazioni Industry 4.0-like concrete e di successo, ottenute in tempi industrialmente accettabili.
In conclusione, già parlando della sola manutenzione predittiva, come fatto in questi ultimi editoriali, emergono i tratti della Manutenzione del futuro in una realtà industriale.
Come da definizione originariamente coniata dall’Osservatorio TeSeM, presentata in pubblico durante il SIMa ad Ottobre 2017 e codificata nel report della ricerca d’anno lo scorso Aprile 2018, la Manutenzione sarà sempre più centrata sul dato e, fortunatamente, la persona sarà ancora centrale per generare un valore dal dato, i.e. vision di data- e human-centered maintenance.
Prof. Marco Macchi, Direttore Manutenzione T&M