I BIG DATA

Quando utilizziamo lo smartphone, quando acquistiamo tramite bancomat e carte di credito, quando guardiamo la televisione, quando accediamo a un’app da smartphone o da pc, quando facciamo una domanda a Google per risolvere un problema, quando ci affidiamo a Google Maps per condurci in un posto e così via, generiamo un flusso crescente e massivo di dati, informazioni preziose per aziende, brand, business, organizzazioni e soggetti portatori di interesse. I dati vengono generati con un flusso così crescente che tutte le informazioni accumulate nel corso degli ultimi due anni ha superato l’ordine dei Zettabyte (1021 byte), appunto Big Data, segnando un record per la civiltà umana.
Per quanto di dati ve ne siano davvero in quantità indicibile, però, la vera rivoluzione a cui ci si rifersice parlando di Big Data non è questa, quanto la capacità di usare tutte queste informazioni per elaborare, analizzare e trovare riscontri oggettivi su diverse tematiche.
La rivoluzione Big Data e, in generale, il termine Big Data si riferisce proprio a cosa si può fare con tutta questa quantità di informazioni, ossia agli algoritmi capaci di trattare così tante variabili in poco tempo e con poche risorse computazionali.
Wikipedia definisce così i “big data”:
Il termine Big Data (“grandi dati” in inglese) descrive l’insieme delle tecnologie e delle metodologie di analisi di dati massivi, ovvero la capacità di estrapolare, analizzare e mettere in relazione un’enorme mole di dati eterogenei, strutturati (come quelli raccolti nei database) e non strutturati (come gli indirizzi e-mail ricavati dai profili, le immagini sui social network e i dati GPS), per scoprire i legami tra fenomeni diversi e prevedere quelli futuri.
Volume, velocità e varietà sono le tre principali caratteristiche distintive dei big data:
- il volume fa riferimento all’enorme quantità di questi dati raccolti;
- la varietà fa riferimento all’eterogeneità di formati in cui questi dati sono disponibili e alle fonti da cui provengono;
- la velocità indica, appunto, la velocità con cui questi dati sono raccolti e analizzati.
Pertanto, un sistema diventa big quando aumenta il volume dei dati e allo stesso tempo aumenta la velocità/flusso di informazioni che il sistema deve poter acquisire e gestire per secondo.
A cosa servono i Big Data?
I big data sono fondamentali per sviluppare modelli di business competitivi, innovativi e in grado di crescere e migliorare costantemente. Essi consentono alle aziende di raccogliere una gran quantità di preziosissime informazioni sull’andamento aziendale, sui risultati delle strategie adottate e delle operazioni attuate e sulle possibili previsioni future. Inoltre, permettono di ottenere informazioni sul comportamento di acquisto della clientela, sulle sue abitudini e sui suoi gusti, sulle reazioni a determinati avvenimenti, sulle caratteristiche e sulle consuetudini. In ambito marketing, l’uso dei Big Data è familiare nella costruzione dei così detti metodi di raccomandazione, come quelli utilizzati da Netflix e Amazon per fare proposte di acquisto sulla base degli interessi di un cliente rispetto a quelli di milioni di altri. Tutti i dati provenienti dalla navigazione di un utente, dai suoi precedenti acquisti, dai prodotti valutati o ricercati permettono ai colossi del commercio (elettronico e non) di suggerire i prodotti più adatti agli scopi del cliente, quelli che solleticano la sua curiosità e lo spingono a comprare per necessità momentanea, permanente o per semplice impulso.
In aggiunta, analizzare questi dati consente di assumere decisioni aziendali mirate con l’obiettivo di rintracciare nuovi potenziali clienti, di aumentare il numero delle vendite, di rendere più efficaci le strategie di fidelizzazione del cliente e di attuare efficaci strategie di cross-selling. E, ancora, le analisi dei big data consentono di pianificare le azioni di marketing in modo mirato e più efficace su ogni media, consentono di studiare in maniera approfondita il target di riferimento, di segmentarlo e di capire come e quando raggiungerlo.
Tuttavia, per quanto possa sembrare tutto così semplice, l’evoluzione dei Big Data non è così alla portata di mano per l’umanità: l’ostacolo preminente da superare è la diffidenza delle aziende, dei centri di ricerca e di taluni scienziati a condividere i dati su cui i Big Data potrebbero lavorare. A dimostrazione di questo, basti pensare alle Università dove vengono effettuati alcuni studi ai cui dati e al materiale di lavoro originale non è fornito libero accesso, se non si fa parte del team di co-autori, o al campo della medicina dove forse c’è il maggior spreco di dati e le peggiori conseguenze: nonostante esistano i mezzi forniti dai Big Data, ogni giorno continuano a morire milioni di persone, anche perché i dati non vengono condivisi.
Le metodologie di analisi dei big data
L’acquisizione e l’elaborazione dei big data ha richiesto la progettazione di nuove metodologie e tecnologie di raccolta e di analisi. In particolare, possiamo distinguere 4 tipi o metodologie di analisi dei big data:
- l’Analisi Descrittiva, ovvero le metodologie e le tecnologie utilizzate per descrivere la situazione attuale e quella passata dei processi aziendali o di progetti di business, rappresentando in modo sintetico e grafico gli indicatori di prestazione dell’attività;
- l’Analisi Predittiva, ovvero gli strumenti di analisi dei dati che aiutano a capire cosa potrebbe accadere nel futuro utilizzando tecniche matematiche come la regressione e i modelli predittivi;
- l’Analisi Prescrittiva, impiegata per individuare soluzioni strategiche e operative efficaci (le Prescriptive Analytics sono tool che mettono a disposizione delle indicazioni strategiche o delle soluzioni operative basate sia sull’Analisi Descrittiva sia sulle Analisi Predittive);
- l’Analisi Automatizzata, che comprende gli strumenti che consentono di implementare autonomamente e in maniera automatizzata l’azione desiderate e secondo il risultato delle analisi che sono state condotte.
Big Data e IV Rivoluzione Industriale
Inutile negare che i Big Data rappresentano la risorsa principale per le imprese che vogliono investire nell’Industria 4.0.
La quarta rivoluzione industriale dipenderà fortemente dall’uso e dall’analisi dei dati e richiederà necessariamente un cambiamento culturale. “La digitalizzazione della produzione di beni o servizi è alla base di un nuovo modo di guardare lo sviluppo economico del Paese, […] chi si occupa da anni di tecnologia e di innovazione non può non essere soddisfatto quando vede che alcuni temi stanno diventando di interesse generale”.
I Big Data all’interno della quarta rivoluzione industriale saranno sempre di più i principali protagonisti dell’Industria 4.0: nel settore manifatturiero le imprese risparmieranno milioni di euro, miglioreranno l’efficienza, l’efficacia, la produttività aziendale e la qualità dei prodotti/servizi offerti. “Chi non innova non solo rimane indietro ma rischia di restare in una nicchia per pochi”, sottolinea il Presidente di Anitec-Assinform.
L’analisi dei dati renderà più efficienti certi profili professionali, ma al contempo rappresenterà una seria minaccia. Per esempio, la diminuzione della domanda di forza lavoro e cambiamento delle skills necessarie per fare parte dell’organico di un’impresa. Alcuni mestieri e professioni scompariranno, ma ne verranno creati di nuovi.
La figura del Data Scientist
Ecco che prende forma un profilo professionale nuovo, caratterizzato da una vocazione e una cultura fortemente interdisciplinare, un ruolo che è chiamato a svolgere un compito di altissima responsabilità: contribuire a trasformare i dati in conoscenza e la conoscenza in valore di business (nelle imprese) o di servizio (nelle Pubbliche Amministrazioni o nelle istituzioni). Il profilo è quello del Data Scientist. Una “etichetta” questa ancora poco diffusa in molte realtà, ma nella sostanza si vede crescere a vista d’occhio una “comunità” di professionisti che fanno crescere tanto la cultura del dato nelle imprese quanto la cultura di “nuovi sistemi di produzione pensati per lavorare sui dati”.
Un esperto Data Scientist è in grado di esaminare dati che provengono da fonti multiple e disparate, guardandoli da diverse angolazioni. L’attività di analisi svolta dal Data Scientist, attraverso il collegamento di nuove informazioni a dati storici, ha lo scopo di individuare una relazione o una linea di tendenza che può indirizzare il lavoro del team. Le competenze tecniche spaziano dalla conoscenza dei linguaggi di programmazione alla capacità di utilizzo di strumenti di analisi come Hadoop e Spark. Il data engineer a sua volta aiuta a raccogliere, organizzare e riordinare i dati che il Data Scientist utilizza per costruire le analisi. I data engineer hanno familiarità con le tecnologie di base di Hadoop come MapReduce, Apache Hive e Apache Pig. Hanno inoltre esperienza nell’utilizzo degli strumenti di base di SQL e NoSQL e nelle attività di data wharehousing ed ETL.