In un’ottica di digital transformation, un sistema informativo correttamente progettato è in grado di migliorare la continuità produttiva di macchinari e linee di fabbricazione, pur essendo a sua volta soggetto a rischi di blocco. La cattiva notizia è che nessuno può permettersi di non adottare le tecnologie digitali. Quella buona è che il rischio complessivo di interruzioni della produzione è comunque più basso all’interno del nuovo paradigma e può essere ulteriormente ridotto progettando e gestendo il sistema in modo appropriato.

Continuità produttiva e sistema informativo

È perlomeno curioso che l’adozione di tecnologie classe Industry 4.0, se da una parte ha aumentato la flessibilità degli impianti produttivi rendendoli capaci di arrivare a produrre in “lotto 1”, dall’altra ha reso più stretta l’interconnessione fra comparti diversi, con il risultato di ridurre la capacità di tollerare imprevisti. Per questo le fabbriche di oggi richiedono un monitoraggio costante e capillare, che produca e trasmetta dati significativi per consentire di verificare in tempo reale la situazione delle linee, dei macchinari, dei magazzini; di effettuare previsioni credibili sull’evoluzione della produzione; di rilevare e capire quando l’impianto è nelle condizioni che portano a potenziali guasti. Per fare questo ovviamente non basta disseminare sensori macchinari e capannoni: serve un sistema di monitoraggio intelligente, magari dotato di algoritmi di machine learning che sfruttando l’intelligenza artificiale possano prevedere i problemi prima che diventino impattanti. Meglio ancora se questo sistema di rilevamento e analisi dei dati è connesso ai sistemi ERP dell’azienda, che tengono traccia della situazione gestionale: ordini ai fornitori, stato della logistica in ingresso, ordini dei clienti, tempi di consegna e via discorrendo. Con un sistema di questo tipo guadagniamo una maggiore sicurezza di marcia e lavoriamo con livelli di rischio ridotti, magari ottimizzando ulteriormente i flussi in fabbrica; ma abbiamo anche introdotto un elemento di complessità in più, che potrebbe crearci qualche grattacapo. Sì, perché anche il sistema informativo è una macchina, molto complessa oltre tutto, e quindi come macchina è anch’essa soggetta a “guasti”. Dal classico guasto hardware ai più subdoli errori del software, da episodi fortuiti di perdita di dati a pericolosi attacchi di hacker a caccia di soldi facili, per un’azienda oggi il sistema informativo è un’infrastruttura critica e importante almeno quanto lo stabilimento produttivo.  E un suo blocco, previsto o meno, può portare allo stop della produzione.

L’importanza della sicurezza

Diventa dunque fondamentale, in un’organizzazione produttiva, applicare gli stessi rigorosi criteri di sicurezza impiegati per i macchinari di produzione anche al sistema informativo, al fine di ottenere la massima sicurezza di marcia. Intendiamoci, mettere in sicurezza un sistema informativo non è un’operazione una tantum, piuttosto si tratta di un processo in continuo divenire, tanto più facile e poco costoso da implementare quanto più il problema della sicurezza è stato considerato in sede di progettazione del sistema. In un sistema informativo correttamente progettato, molti rischi sono esclusi o almeno fortemente mitigati fin dall’inizio. Per proteggersi dai problemi hardware le parti “critiche”, dai server allo storage, saranno ridondate, con criteri diversi a seconda delle dimensioni complessive del sistema e del livello di protezione richiesto. Per esempio, avere due server ridondati nello stesso data center vi protegge dal guasto, ma non da un incendio nell’edificio. Avere due datacenter gemelli a svariati chilometri di distanza, o anche un server locale e un altro in Cloud, vi permetterà invece di rimanere operativi probabilmente anche in caso di catastrofe naturale.

Hacker e malware

Altri problemi che negli ultimi anni si sono fatti sempre più gravi, tanto da avere ormai preso il posto dei guasti hardware nell’hit parade degli incubi dei Chief Information Officer, sono gli attacchi hacker e il malware in genere. Finito il tempo dei ragazzini che si infiltravano nei sistemi informativi aziendali per divertimento, ora il panorama degli attacchi vede attive organizzazioni di cybercriminali internazionali che cercano di impadronirsi di segreti industriali, oppure più banalmente puntano a realizzare un facile guadagno criptando i dati aziendali tramite i cosiddetti “ransomware”, per poi chiedere il riscatto. Per difendersi da queste minacce, esistono armi specifiche, dagli antivirus/antimalware ai firewall, dalle unità hardware specializzate nel rilevamento e analisi dei flussi di dati alla ricerca di quelli “anomali” ai servizi di controllo e protezione in tempo reale forniti da società specializzate, spesso associati a sistemi di analisi che usano algoritmi di intelligenza artificiale. Ma è ovvio che progettare correttamente la propria rete informativa, facendo attenzione a segmentare propriamente l’infrastruttura, evitando di aprire indiscriminatamente tutto a tutti (e anzi stabilendo permessi di accesso calibrati sulle esigenze dei vari operatori), fornendo a tutti quelli che hanno accesso alla rete una adeguata formazione sui temi di sicurezza, consente di far calare parecchio la percentuale di rischio da gestire, e la gestione della continuità operativa day by day risulterà sicuramente meno onerosa e complessa. E se emergesse il sospetto che nella fase di deployment iniziale sia mancata una progettazione rigorosa, anche procedere a un assessment globale dell’infrastruttura IT, nell’ottica di ottimizzare le interrelazioni fra i sistemi, adeguare le risorse di calcolo, allineare i software alle versioni più recenti e meglio debuggate, in una parola riconfigurare e rinnovare la “macchina” IT per farla girare nel modo più pulito possibile aiuterebbe molto a ottenere una gestione realmente sicura dell’infrastruttura.

Il rischio dell’insicurezza

Ma cosa si rischia concretamente nel caso di un problema serio al sistema informativo? Ci sono molti studi sull’argomento, e concordano tutti su una conclusione: l’azienda che dovesse perdere il suo patrimonio informativo, per guasto o malware, ha più del 50% di probabilità di fallire entro 12/18 mesi. E il dato è ottimistico, perché leggendo le conclusioni dei vari studi troviamo cifre ancora più allarmanti. Secondo uno di essi, condotto negli USA, fra le aziende che hanno avuto la perdita dei database per un incendio, il 30% ha chiuso entro l’anno e il 70% entro 5 anni dall’evento. Un altro registra che fra le piccole aziende che perdono fortuitamente i loro dati la percentuale di fallimento entro l’anno arriva al 70%. Per tornare sulla nostra sponda dell’Atlantico, da un sondaggio condotto qualche anno fa fra i CIO di varie importanti aziende tedesche, francesi e inglesi emergeva che il danno medio subito da un’azienda per la perdita dei dati dei clienti si aggirava sui 2,7 milioni di euro, fra mancati ricavi e sanzioni, e senza considerare il danno d’immagine. E al momento del sondaggio non era ancora entrata in vigore la GDPR, che ha reso le conseguenze anche più pesanti.

A questo punto, ci si potrebbe chiedere perché ci siamo infilati in questo vicolo cieco. Ovvero, se uno stop del sistema informativo rischia di provocare il collasso dell’azienda, perché non tornare a produrre secondo i metodi di 20 o 30 anni fa, quando la fabbrica funzionava senza bisogno di computer e sensori e i macchinari ad aria compressa non si fermavano mai, almeno a sentire i nostri ex capireparto pensionati anni fa? A parte il fatto che i ricordi dei nostri ex capireparto sono magari un tantino velati dalla nostalgia – perché i macchinari di una volta si guastavano eccome, l’affidabilità non era poi così elevata come ci sembra di ricordare – il problema è che oggi, per stare sul mercato, bisogna produrre con i ritmi, la versatilità (ricordate: lotto 1), la precisione e l’ottimizzazione logistica che sono possibili solo con l’utilizzo del digitale in tutti i processi. E chi pensa di farne a meno, di potersi esimere dalla digital transformation, di poter continuare a produrre come faceva anche solo 10 anni fa, rischia concretamente di finire fuori mercato.