Tool

Big Data

Big Data

Big DataIl concetto di Big Data ha assunto, negli ultimi tempi, una rilevanza sempre maggiore. Un Big Data altro non è che una gigantesca collezione di informazioni e di tecnologie preposte alla loro gestione. 

In questo articolo approfondiremo caratteristiche ed usi dei Big Data e daremo un’occhiata a cosa ci riserva il futuro.

 

 

 

Rispetto ai classici database progettati per ospitare informazioni specifiche, i Big Data sono il risultato della creazione di un enorme numero di dati creati da numerosi generatori.  Questo gran numero di generatori, siano essi persone o macchine, caratterizzano l’eterogeneità dei Big Data.

Se prendiamo, ad esempio, i dati provenienti da un social network come Facebook notiamo che la mole di dati generati è superiore al PetaByte.  Nel caso di FaceBook, i dati provengono dai post creati e riguardano non solo i contenuti testuali ma anche i dati dell’utente, l’interazione che esso ha con altri articoli e molto altro.

Le caratteristiche costitutive di un Big Data possono essere sintetizzate in un modello descrittivo a tre dimensioni:

 

Volume –  riferito, come si può immaginare, al quantitativo di dati costituenti un Big Data.  Questa è la caratteristica principale e costituisce un ordine di grandezza che è in funzione delle tecnologie disponibili tese alla gestione e manipolazione delle informazioni.

Varietà – identifica l’eterogeneità dei dati sia acquisiti che potenziali riconducibili a categorie differenti.  Dato fondamentale per gli analisti che devono essere in grado di estrapolare in maniera efficace le informazioni.

Velocità –  attiene sia alla velocità di generazione dei dati che alla loro interrogazione e fruizione.  

 

Questo il modello base che, con il passare del tempo, è stato rivisto ed ampliato da operatori nel settore IT con ulteriori caratteristiche in grado di meglio descrivere il discorso Big Data:

 

Variabilità – ovvero modificabilità dell’informazione contenuta nei Big Data.  Caratteristica aggiunta per risolvere la problematica collegata alla inconsistenza dei dati.

Veridicità –  identifica l’accuratezza dell’informazione.

Complessità – rappresenta il grado di complessità dei processi di gestione dei Big Data altamente correlati con fonti, numero e tipologie di dati.

 

 

Alcuni esempi di applicazioni

  • Grazie all’enorme mole di informazioni provenienti da dati storici, telecamere e sensori rilevatori vari, il Centro di Analisi degli uragani USA prova a stimare percorsi ed intensità degli uragani che regolarmente si abbattono sugli stati uniti.
  • Google Flu Trends – Stima delle epidemie influenzali basate sull’analisi delle query effettuate su Google nel corso del tempo.
  • Street Bump – tramite un’APP dedicata e grazie all’accelerometro degli smartphone segnala la possibile presenza di buche presenti sul manto autostradale.

 

 

 

Limiti da superare

L’enorme potenziale dei Big Data trova forti limitazioni nella diffidenza delle aziende e dei centri di ricerca nel condividere i dati a propria disposizione.  Quante sono le Università che svolgono studi e ricerche basate su dati e materiale accessibile solo dai componenti del team di ricerca? Quali sarebbero i vantaggi per l’intera comunità scientifica se tutti potessero avere libero accesso a queste informazioni? 

I passi che si potrebbero ottenere in ambito tecnico e scientifico sarebbero enormi.  Confidiamo che il futuro veda abbattute queste barriere a vantaggio di tutti.

Back to list