Salte a conteúdo principal

Hitachi

Social Innovation

Big Data: raccoglierli è semplice, capirli…meno!

Oggi, enormi quantità di dati sono liberamente accessibili. Ma la parte più difficile consiste nell’estrazione delle informazioni utili

La vita dei Big Data inizia molto, molto tempo fa.

È il 1691, quando un teologo di nome Caspar Neumann invia al segretario della London Royal Society un insieme di documenti che aveva raccolto sul numero di nascite, matrimoni e decessi tra gli anni 1687 e 1691 nella città di Breslau.

Il segretario li visiona. Poi passa tutto il materiale al matematico e astronomo Edmund Halley, che lo usa per compilare una tavola delle età delle persone alla loro morte, al fine di ricavarne la probabile aspettativa di vita di una persona in base all’età. La trasformazione di quei dati getta le basi per la creazione della cosiddetta “tavola di sopravvivenza”, o “tavola di mortalità”: è, di fatto, il primo esempio di Big Data conosciuto dalla nostra società.

Più di 300 anni dopo la nascita della tavola di sopravvivenza, oggi la situazione è stravolta. Enormi quantità di dati, infatti, sono liberamente accessibili. La parte più difficile, però, consiste nell’estrare da quei dati informazioni utili per la società. In questo contesto, le sfide più difficili sono presentate dal materiale raccolto in formati non compatibili con i database di oggi.

Parliamo di immagini, di video, di audio che hanno bisogno di essere indicizzati sotto un unico codice XML. In questo contesto, a capire l’importanza del problema è stata proprio Hitachi, con il suo programma Hitachi Data Systems. Che segue, di fatto, un metodo diviso in quattro fasi. Eccole:

Data Warehousing

Si tratta dell’aggregazione dei dati da archiviare e analizzare. Con il suo sistema, Hitachi raccoglie le informazioni dalle proprie unità di archiviazione di rete e depositi di contenuti in BlueArc e li indicizza tutti come contenuti in codice XML. Grazie a questo passaggio, si crea un formato comune indipendente dalla forma e si elimina il problema del confronto tra più database, permettendo a un computer di elaborare i dati molto più velocemente.

“Virtualizzazione” dei dati

È la fase in cui si inseriscono i dati nella rete cloud per ottimizzarne la memorizzazione. La caratteristica che distingue l’approccio di Hitachi dagli altri è che tutti i dati di un cliente vengono virtualizzati nello stesso cloud, indipendentemente dal fornitore IT precedente. L’uniformità di formato e accesso rappresenta da sempre uno dei vantaggi chiave di Hitachi e della sua strategia, permettendo all’azienda di esportare questa tecnologia al di fuori del mercato asiatico.

Adattamento delle soluzioni

Le aziende passano e le esigenze cambiano. Per questo, la terza fase dell’approccio di Hitachi consiste nell’adattamento delle soluzioni all’evoluzione dei bisogni dei clienti. Come? Attraverso l’introduzione di storage più veloci e convenienti e di tecniche analitiche più veloci. Un esempio ce lo regalano le unità a stato solido (SSD) Hitachi Accelerated Flash, che consentono di rimuovere i problemi di intasamento dei dati e di rallentamento dell’elaborazione dei dati, attraverso un processo di sincronizzazione dei file tra piattaforme diverse.

Sviluppo continuo

La mole di dati è in costante aumento. Secondo Hu Yoshida, Chief Technology Officer di Hitachi Data System, ogni anno si registra una percentuale di crescita del 27% di media. Le server farm del mondo, insomma, rischiano di non rimanere al passo con i tempi. E per sostenerne le basi, lo sviluppo costante delle strutture, parimenti all’aggiunta di nuovi sistemi di storage come i “data lake” (letteralmente: laghi di dati), appare necessario. Come fare quindi? Be’, le soluzioni sono due. Da una parte, sembra servire come il pane l’analisi in tempo reale dei dati, raccolti dalla comunicazione tra macchine. Dall’altra, invece, un’opzione potrebbe essere quella di aggiornare l’infrastruttura cloud. E di puntare, quindi, sulla crescita del cosiddetto cloud computing, che permette di abbassare i costi e di facilitare i processi di archivio. Questa tipologia, infatti, è più ibrida di altre, memorizza in parte pubblicamente e in parte privatamente i dati, e piace sempre più ad aziende e organizzazioni, perché alleggerisce il sistema di un peso non indifferente: non sorprende quindi che il 70% delle imprese, oggi, abbia detto di tenerla in considerazione come investimento per l’anno prossimo.