Big data è un termine di moda. È usato (e, forse troppo spesso, abusato) per esprimere un cambiamento paradigmatico dell’approccio scientifico adottabile per supportare differenti tipi di analisi.
Con i Big data, l’obiettivo è quello di estrarre informazioni rispetto al fenomeno analizzato partendo da una elevata mole di dati provenienti potenzialmente da fonti eterogenee, quindi non soltanto dati strutturati ma anche dati non strutturati, come immagini, testo di documenti, log di eventi da dispositivi sia fissi che mobili, ecc. I Big data sono quindi ampiamente presenti nel mondo industriale, tanto più oggigiorno come effetto della spinta alla connettività dei macchinari e, nello specifico, dei sensori sul campo. D’altra parte, i Big data risiedono da tempo nelle operations aziendali, purché siano stati immagazzinati in un sistema di gestione del prodotto piuttosto che dell’impianto industriale. Solo come esempio, pensiamo a un sistema che serve a gestire i documenti che arrivano da normative imposte dal settore, piuttosto che normative interne dell’azienda: molti dati, non strutturati o semi-strutturati, sono già lì presenti anche se, nel migliore dei casi, la loro fruibilità passa attraverso l’uomo che li consulta ed un buon sistema di archiviazione e gestione che permette di navigarli in modo efficiente ed efficace.
Big data è quindi una riconosciuta tecnologia della quarta rivoluzione industriale. D’altra parte, è più risultato di una evoluzione: parlare di Big data in vari ambiti applicativi industriali – ivi compresa la manutenzione – è il frutto della naturale evoluzione di ciò che è successo nel passato con la ricerca scientifica e con lo sviluppo tecnologico che hanno messo a disposizione specifiche tecnologie a supporto del processo di gestione di grandi moli di dati. Guardando al mercato, è evidente che alcuni ben noti giganti dell’IT a livello mondiale hanno da sempre basato una buona parte del successo su software di data management. Il data management è sempre stato legato al trattamento e alla gestione di grandi quantità di dati. Allo stesso modo, è stato importante per applicazioni legate all’analisi dei flussi finanziari piuttosto che del commercio dei prodotti. Oggigiorno, i metodi di ricerca e analisi di grandi moli di dati hanno avuto una rapidissima crescita anche sotto la spinta dei giganti del web; sono così diventati una chiave di successo per varie applicazioni innovative, ad esempio in ambito logistico o in relazione alla vendita di servizi attraverso nuovi modelli di business (es. per affitti o servizi di mobilità, in competizione con il “tradizionale” taxi); per non parlare delle ricadute dell’analytics applicata ai Big data nella vita sociale e, in particolare, nel mondo dei social networks, veri e propri depositi di un capitale di dati di grandi dimensioni.
La crescita esponenziale dei dati a disposizione ha influenzato diversi settori della computer science. Si sta oggigiorno osservando una rinnovata enfasi sull’artificial intelligence, usando (e, di nuovo, spesso abusando) una serie di termini come machine learning e deep learning, come modelli data-driven di creazione della conoscenza. Se da un lato, l’artificial intelligence ritorna in voga come strumento per la modellazione e l’analisi dei dati, d’altro canto servono infrastrutture adeguate che possono essere generalmente dedicate alla gestione di una tale mole di dati. In tal senso, la gestione dei Big data sta spingendo verso lo sviluppo del cloud computing, opzione tecnologica importante per poter garantire una infrastruttura che abilita l’accesso diffuso, agevole e on demand a un insieme condiviso di risorse: il cloud può essere un componente tecnologico importante in cui far risiedere intelligence e metodi di analytics dei Big data.
Al di là di altri approfondimenti su cui ora sorvolerei, a questo punto mi chiedo – in maniera critica, forse un po’ per provocare – se le “mirabilie” promesse siano davvero tali. Non ho nessuna volontà di mostrarmi scettico di fronte a quella che è certamente una potenzialità tecnologica oggigiorno disponibile per essere impiegata anche in manutenzione. Sento però l’esigenza di rimanere con i piedi per terra, aggrappandomi alla conoscenza d’ambito applicativo che è propria della manutenzione e che si è consolidata nel corso degli anni. In generale, penso che ciò che si è raggiunto nel passato sia sempre una conquista e, quindi, non si debba mai dimenticare; nello specifico, credo che le “vecchie” tecniche e i “vecchi” concetti che oggigiorno, a guardare i titoli nei convegni, sembrano non essere più di moda, debbano essere sempre un punto di partenza, uno zoccolo duro fondante su cui innestare le nuove tecnologie messe a disposizione dal mercato. Da impiantista, direi, è come pensare a un retrofit con nuove tecnologie; la novità è che queste tecnologie disponibili non “girano” solo vicino al fisico (automazione di impianto) ma anche nel virtuale (il cloud).
Quando parlo di un concetto del passato, penso alle basi della conoscenza manutentiva. È sempre importante, ad esempio, parlare di modo di guasto, vale a dire, la manifestazione della cessazione di attitudine di un’entità (asset, dispositivo, sottosistema, componente) a erogare la funzione richiesta. Il modo di guasto è frutto della conoscenza, ed è anzi un cardine, perché aiuta a caratterizzare il termine del processo di degrado, passando per una serie di meccanismi di generazione del guasto (dovuti al carico meccanico, termico, chimico, ecc. ...), che hanno portato il materiale dell’asset (o di un suo sottosistema o componente) a indebolirsi e, appunto, a far occorrere il guasto. Dico questo perché ritengo opportuno condividere un pensiero che è certamente chiaro al lettore: il degrado è pur sempre una trasformazione delle caratteristiche dell’asset soggetto alle sollecitazioni dell’ambiente in cui opera. In tal senso, è un fenomeno in molti casi noto, che può essere affrontato con approcci ingegneristici tradizionali e “vecchie” tecniche. Questo è inequivocabile. Come anche è evidente che i Big data, i metodi “nuovi” di analytics, di machine/deep learning, ecc. sono interessanti opzioni tecnologiche per un approccio scientifico, basato sui dati – i.e. approccio data-driven – e finalizzato a una migliore conoscenza del fenomeno del degrado unitamente alle sollecitazioni ambientali che lo determinano.
Non esiste, quindi, contrapposizione tra “vecchio” e “nuovo”, ma una potenziale sinergia. È anzi interessante riflettere sull’adozione di un approccio ibrido, che non sia basato solo su una black box pura, dovuta all’approccio data-driven, ma che combini le potenzialità dei Big Data con l’esperienza tecnica e ingegneristica di manutenzione per ottenere, così, il miglior assetto del sistema di Big data & analytics, capace di sintetizzare la conoscenza delle trasformazioni fisiche che nell’asset accadono. In virtù delle sue competenze ed esperienze, anche l’esperto in manutenzione, sia specialista che ingegnere, continuerà ad essere una risorsa fondamentale, e il data scientist non potrà che imparare dalla sua conoscenza, per un contributo efficace ad uno sviluppo di successo dei Big data in manutenzione.
Prof. Marco Macchi, Direttore Manutenzione T&M