Il concetto di Big Data ha assunto, negli ultimi tempi, una rilevanza sempre maggiore. Un Big Data altro non è che una gigantesca collezione di informazioni e di tecnologie preposte alla loro gestione.
In questo articolo approfondiremo caratteristiche ed usi dei Big Data e daremo un’occhiata a cosa ci riserva il futuro.
Rispetto ai classici database progettati per ospitare informazioni specifiche, i Big Data sono il risultato della creazione di un enorme numero di dati creati da numerosi generatori. Questo gran numero di generatori, siano essi persone o macchine, caratterizzano l’eterogeneità dei Big Data.
Se prendiamo, ad esempio, i dati provenienti da un social network come Facebook notiamo che la mole di dati generati è superiore al PetaByte. Nel caso di FaceBook, i dati provengono dai post creati e riguardano non solo i contenuti testuali ma anche i dati dell’utente, l’interazione che esso ha con altri articoli e molto altro.
Le caratteristiche costitutive di un Big Data possono essere sintetizzate in un modello descrittivo a tre dimensioni:
Volume – riferito, come si può immaginare, al quantitativo di dati costituenti un Big Data. Questa è la caratteristica principale e costituisce un ordine di grandezza che è in funzione delle tecnologie disponibili tese alla gestione e manipolazione delle informazioni.
Varietà – identifica l’eterogeneità dei dati sia acquisiti che potenziali riconducibili a categorie differenti. Dato fondamentale per gli analisti che devono essere in grado di estrapolare in maniera efficace le informazioni.
Velocità – attiene sia alla velocità di generazione dei dati che alla loro interrogazione e fruizione.
Questo il modello base che, con il passare del tempo, è stato rivisto ed ampliato da operatori nel settore IT con ulteriori caratteristiche in grado di meglio descrivere il discorso Big Data:
Variabilità – ovvero modificabilità dell’informazione contenuta nei Big Data. Caratteristica aggiunta per risolvere la problematica collegata alla inconsistenza dei dati.
Veridicità – identifica l’accuratezza dell’informazione.
Complessità – rappresenta il grado di complessità dei processi di gestione dei Big Data altamente correlati con fonti, numero e tipologie di dati.
Alcuni esempi di applicazioni
- Grazie all’enorme mole di informazioni provenienti da dati storici, telecamere e sensori rilevatori vari, il Centro di Analisi degli uragani USA prova a stimare percorsi ed intensità degli uragani che regolarmente si abbattono sugli stati uniti.
- Google Flu Trends – Stima delle epidemie influenzali basate sull’analisi delle query effettuate su Google nel corso del tempo.
- Street Bump – tramite un’APP dedicata e grazie all’accelerometro degli smartphone segnala la possibile presenza di buche presenti sul manto autostradale.
Limiti da superare
L’enorme potenziale dei Big Data trova forti limitazioni nella diffidenza delle aziende e dei centri di ricerca nel condividere i dati a propria disposizione. Quante sono le Università che svolgono studi e ricerche basate su dati e materiale accessibile solo dai componenti del team di ricerca? Quali sarebbero i vantaggi per l’intera comunità scientifica se tutti potessero avere libero accesso a queste informazioni?
I passi che si potrebbero ottenere in ambito tecnico e scientifico sarebbero enormi. Confidiamo che il futuro veda abbattute queste barriere a vantaggio di tutti.