Le grandi aggregazioni di dati, la cui dimensione e complessità richiede strumenti più avanzati rispetto a quelli tradizionali, può rappresentare una nuova frontiera per innovazione, competitività e produttività.
Come evidenziato in sommario, ci si potrebbe trovare di fronte a un nuovo paradigma indubbiamente interessante. Ma nella pratica, cosa si intende per Big Data? Semplificando, si intendono le grandi quantità di dati non strutturati o semi-strutturati che sono creati da un’organizzazione nella sua normale attività. I dati non strutturati possono essere testuali, generati con email, presentazioni Power Point e documenti Word, oppure non testuali, come immagini, audio, filmati, senza dimenticare l’ampia varietà di dati che la strumentazione attuale è in grado di generare nell’ambito delle applicazioni più svariate, e quanto arriva da applicazioni Web e da Social Media. L’inserimento di questi dati in un database relazionale è troppo costoso come tempo e denaro, tal per cui, pur presenti in azienda, perdono il loro potenziale valore. Detto diversamente, sono dati che non possono essere analizzati e processati con gli strumenti tradizionali. Da precisare ancora che il termine Big Data potrebbe far pensare a un qualcosa di completamente nuovo, nel senso che prima i dati non erano tali (big), ma non è così. Secondo alcune stime, ogni giorno si generano byte di dati pari a 2,5 quintilioni (miliardi di triliardi, dove un triliardo è mille miliardi di miliardi, alla fine 1030), con tendenza alla crescita, tanto che il 90% dei dati oggi al mondo sono stati creati solo negli ultimi due anni. I Big Data prevedono quattro caratteristiche dimensionali: volume, velocità, varietà, veridicità, per cui non è solo una questione di dimensione. Indubbiamente si percepisce un’opportunità, quella di aggregare nuove informazioni e contenuti non immediatamente visibili, per rispondere meglio a esigenze emergenti.
Big Data Analitycs
Per raggiungere obiettivi di maggior innovazione, competitività e produttività in senso lato, sono stati sviluppati strumenti di Big Data Analytics, termine con cui si intendono specifici tool atti a esaminare grandi quantità di dati di varia natura al fine di individuare correlazioni e altre informazioni rilevanti. Per evitare di prendere sempre per buono quello che viene proposto dalla terminologia ufficiale, soffermiamoci un istante sulla parola “analitycs”, la cui traduzione è sostanzialmente “analitico”, termine che deriva da “analisi”. Analitico è un metodo di indagine che divide i problemi da affrontare nelle sue parti più semplici per poi vagliare la validità di ciascuna parte: il problema viene quindi risolto partendo dai dati validi ed escludendo quelli non validi. In tal modo l’analisi, oltre a rivestire una considerevole importanza conoscitiva, diventa un importante strumento di controllo e di garanzia della correttezza dei processi cognitivi. A questo punto diventa chiaro che Big Data Analitycs è un processo in cui si applicano tecniche analitiche avanzate a insiemi di dati estesi e soprattutto di tipologie differenti. Con diversa chiave di lettura, con “analitycs” si fa riferimento a un sistema integrato nell’ambito del quale vengono utilizzati metodi quantitativi per derivare dai dati informazioni traducibili in azioni, il che porta a utilizzare quelle informazioni nell’elaborazione delle decisioni aziendali e, in ultima analisi, per migliorare i risultati. Se si vuole un’immagine impressiva, si pensi al fatto che oramai si vive in un mondo “data-driven”, in cui il muoversi efficiente delle organizzazioni tra settori diversi dipende da un uso efficace di una vasta quantità d’informazioni, e per dar senso a questa vastità, quindi ai Big Data, occorrono strumenti, competenze e soprattutto la consapevolezza che i dati sono la nuova fonte di energia per un’azienda. La Data Analitycs è sempre stata tradizionalmente costosa e anche inefficiente, ma le nuove piattaforme analitiche ottimizzate per i Big Data stanno aprendo nuove strade: in questo il senso dei nuovi strumenti per Big Data Analitycs, e il fatto che se ne parli sempre più spesso.
Big Data e industria
Si può e si deve parlare di nuove piattaforme analitiche, ma senza dimenticare l’esistente, e un discorso a parte merita il mondo industriale, non certo una realtà a se stante, quindi anch’esso entrato, al pari di altri contesti diversi, siano essi commerciali o finanziari, nell’era dei Big Data, con una crescita esponenziale di dati che, come volume, varietà e complessità, le aziende devono elaborare in un arco di tempo accettabile, usando opportune soluzioni software per gestire al meglio, se non migliorare, le proprie performance operative con strategie data-driven. Questo è particolarmente vero per le aziende manifatturiere, in cui tipicamente vi sono delle “isole” d’informazioni di processo che devono essere aggregate, memorizzate e analizzate per ricavarne significato di contesto e valore. Il riferimento è per esempio alle analisi storiche di trend critici atte a consentire analisi predittive in tempo reale. Se ci si concentra sui dati di processo, in effetti già esistono gli strumenti per confrontarsi con i Big Data, e il riferimento è agli Historian, categoria software che non viene certo in mente parlando in generale della tematica oggetto di questo articolo, dimenticando che le soluzioni Historian, soprattutto le più recenti e avanzate e spesso integrate nel contesto SCADA, sono state specificatamente concepite per raccogliere, memorizzare e gestire grandi quantità di dati di processo, e sono questi “industrial big data” che rappresentano la sfida attuale per il manifatturiero. Gli Historian, per loro natura, catturano continuamente i dati a livello di processo da dispositivi diversi, provvedendo a opportuna compressione per efficiente memorizzazione, consentendo il lancio di specifiche query su determinati data set e per determinati periodi temporali, per poter analizzare per esempio il significato di eventuali variazioni di parametri recuperati in linea di produzione. Abbiamo proposto queste considerazioni non certo per negare il significato generale dei Big Data o la valenza dei nuovi tool di analisi, ma piuttosto per evidenziare come sempre sia necessaria una contestualizzazione delle problematiche e dell’innovazione: non raramente si scopre che, per precisi obiettivi, la soluzione a una problematica esisteva già prima che se ne fosse fatta una nuova e diversa formalizzazione, sia terminologica che di contenuti.
Un commento critico
Sull’argomento Big Data abbiamo sentito, in modo molto informale, l’opinione di esperti di settore non direttamente coinvolti da un punto di vista commerciale con questa nuova “frontiera” dell’Information Technology. I commenti sono stati per certi versi molto critici nel merito della questione. È indubbio che certe situazioni esistono, anche se amplificate dai recenti sviluppi dell’universo digitale. Si prenda come riferimento il Cloud Computing: volendo semplificare al massimo, e senza considerarne gli aspetti più avanzati, il concetto di fondo è quello per cui si fa uso di risorse non materialmente presenti in azienda per svolgere attività che prima si effettuavano all’interno. Per esempio, nessun limite nella capacità di memorizzazione dati, che sono allocati nel Cloud. Ovviamente diventano possibili operations prima non fattibili anche solo per costi, da cui la classica, seppur vera, affermazione per cui anche una PMI può avere le risorse che prima solo una grande azienda poteva permettersi. Il tutto è stato formalizzato in un immaginario che necessitava anche di una formalizzazione terminologica (Cloud Computing, appunto) utile per inquadrare proposte e soluzioni dedicate al miglior sfruttamento delle potenzialità di questo nuovo paradigma dell’IT, da cui una differenziazione da soluzioni più o meno tradizionali. Questo tende a negare una continuità evolutiva, puntando sostanzialmente a una netta rottura con il passato, che è vera nelle possibilità (si può fare quello che prima non si poteva fare o era troppo costoso pensare di fare) ma non negli strumenti in quanto evoluzione di precedenti disponibilità applicative, semmai meglio concepite per aderire al massimo ai risultati attesi dal mercato e alle nuove formalizzazioni concettuali. In pratica, uno sviluppo non esente da operazioni di marketing, il che non è certo stigmatizzabile come negativo. Altro esempio, il BYOD, Bring Your Own Device, fenomeno formatosi indipendentemente da qualsiasi nuova concettualizzazione dell’IT, semmai conseguenza della consumerizzazione, questo sì, dell’IT stesso. Nel caso BYOD ci si è trovati di fronte, anche qui semplificando al massimo, a un dato di fatto, all’uso di tablet e smartphone da parte del personale, da cui, forse esagerando, una corsa ai ripari. Il BYOD esiste perché esistono la possibilità d’uso dei device mobili personali, quindi, delle due l’una: o li si proibiscono in azienda, o li si integrano, posto sia vantaggioso farlo, e pare lo sia. Da questo, un’altra formalizzazione concettuale, con soluzioni ad hoc inevitabilmente evoluzione di precedenti soluzioni, ma altrettanto inevitabilmente dedicate al problema specifico con la creazione di un ombrello a copertura di quando è concepito per gestire l’uso di device personali nelle aziende: non si dice che una data soluzione permette di risolvere i problemi legati all’integrazione di smartphone in azienda, ma piuttosto che la soluzione è dedicata alla gestione del BYOD. Anche qui un aspetto marketing evidente, anche se, ancora una volta, non negativo. Ora abbiamo i Big Data, chiaramente non come tempistica ma come sequenza di trattazione, che, come evidenziato nella precedente parte dell’articolo, ci sono sempre stati, solo che oggi sono nettamente più “big” stante l’imperante digitalizzazione delle comunicazioni a tutti i livelli. Una volta si parlava di Data Mining che, come il nome stesso evidenzia, aveva come scopo quello di “scavare” tra i dati per trovare informazioni utili da nuove e non immediatamente visibili aggregazioni. Ma le cose cambiano, oggi si ha un migliore accesso ai dati, che sono oggettivamente di più, sono aumentate le capacità di elaborazione dei sistemi a disposizione del personale, sia che si parli di desktop, di laptop o di tablet, e inoltre sono indubbi i cambiamenti nei software in generale, più semplici e intuitivi da usare. Oggi si parla di Big Data, intendendo, forse in modo non del tutto corretto, un insieme di dati talmente grandi che è praticamente impossibile usarli, ma questa definizione, ci viene detto, non è adeguata. In primis perché con il progressivo miglioramento di hardware e software la definizione di “troppo grande” va di continuo vista in rialzo, e poi, soprattutto, perché con Big Data ci si riferisce a un obiettivo, quello di trovare un modo di usare tecnologie hardware e software esistenti per manipolare i dati che, in ultima analisi, sono già presenti. Per cui parlando di Big Data si intende piuttosto “data analytics”, l’analisi dei dati con varie modalità di suddivisione o selezione tra grandi quantità di dati per individuare i frammenti d’informazione pertinenti o rilevanti per una particolare richiesta. La novità sta allora nel fatto che si sono ben intuiti i possibili vantaggi di questa operazione per le aziende, e si è creato un nuovo contesto concettuale in cui calare proposte, soluzioni, e prodotti specifici.