Reporting the World Over

News and Comments about Life

Elaborazione dati più veloce della luce

Ricerca IBM: messo a punto un metodo per analizzare grandi quantità di dati a velocità record.  Nove terabyte di dati validati in meno di 20 minuti

Alla conferenza della Society for Industrial and Applied Mathematics, i ricercatori IBM presenteranno un nuovo metodo, basato su un algoritmo matematico, che riduce di due ordini di grandezza la complessità computazionale, i costi e il consumo energetico necessari per analizzare enormi quantità di dati. Il nuovo metodo assicura che i dati producano modelli più accurati e prevedibili.

In un esperimento da record, i ricercatori IBM hanno utilizzato il quarto supercomputer più potente al mondo – un sistema Blue Gene/P presso il Forschungszentrum Jülich, di Jülich, Germania – per validare nove terabyte di dati (nove milioni di milioni) in meno di 20 minuti, senza implicazioni sul fronte della accuratezza dell’analisi. Estrapolato, ciò equivarrebbe ad analizzare l’intero catalogo online della Biblioteca del Congresso statunitense in meno di quattro ore**. Di norma, utilizzando lo stesso sistema, ciò avrebbe richiesto più di una giornata. Inoltre, il processo ha portato a un consumo di energia molto ridotto rispetto a quello tradizionalmente necessario**.

Uno dei fattori critici nella Business Analytics è la qualità e il livello di affidabilità dei dati che vengono utilizzati e anche generati dal modello. In aree che vanno dall’economia alla finanza e gestione del portafoglio, modellazione climatica, geologia e fino all’astrofisica, il nuovo metodo di IBM potrebbe aprire la strada alla creazione di modelli più potenti, complessi e accurati.

“In un mondo che contiene in media un miliardo di transistor per ogni essere umano, e il numero cresce di giorno in giorno, i dati stanno esplodendo a un ritmo senza precedenti”, spiega Alessandro Curioni, manager del team Computational Sciences al centro di Ricerca di Zurigo. “Analizzare questi vasti volumi di dati che si accumulano continuamente è una sfida computazionale enorme in numerose applicazioni della scienza, dell’ingegneria e del business. Questo risultato apre nuove prospettive per analizzare la qualità di grandi volumi di dati rapidamente”.

“Nei prossimi anni, il supercomputing ci fornirà elementi di conoscenza esclusivi e aiuterà a creare valore aggiunto con nuove tecnologie”, spiega il Prof. Dr. Thomas Lippert, Director del Jülich Supercomputing Center. “Un passo fondamentale sarà rappresentato da strumenti e algoritmi innovativi, che ci aiuteranno ad analizzare l’enorme quantità di dati forniti dalle simulazioni sui computer più potenti”.

Con la comparsa di nuovi sistemi più intelligenti, come reti intelligenti e sistemi di monitoraggio del traffico, che si collegano a sensori, attuatori, tag RFID, dispositivi di tracciamento GPS, la quantità di dati digitali aumenta a velocità vertiginosa. Questi computer in miniatura misurano qualsiasi cosa, dal livello di inquinamento delle acque degli oceani ai modelli di traffico, alla supply chain alimentare. Le informazioni prodotte da questi dispositivi devono essere analizzate rapidamente per aiutare le persone a prendere decisioni.

A complicare le cose, la velocità a cui vengono archiviati i dati supera largamente la capacità di calcolo delle tecniche di analitica computazionale standard.

“Determinare il livello di tipicità o rilevanza statistica dei dati aiuta a misurare la qualità dell’analisi complessiva e a rivelare i difetti nel modello o le relazioni nascoste nei dati”, spiega il Dr. Costas Bekas di IBM Research – Zurigo. “Un’analisi efficiente di enormi insiemi di dati richiede lo sviluppo di una nuova generazione di tecniche matematiche, che puntano a ridurre la complessità computazionale e a consentirne un’utilizzo efficiente sulle attuali risorse massivamente parallele”.

La quantità di calcoli necessaria per misurare la qualità di enormi insiemi di dati con le tecniche attuali richiede capacità di calcolo di exaflop (un miliardo di miliardo di calcoli), ben oltre le capacità dei computer attuali.

Il nuovo metodo dimostrato dagli scienziati IBM riduce la complessità computazionale e ha elevati livelli di scalabilità, che arrivano al livello di potenza del JuGene Supercomputer al Forschungszentrum Jülich. Con i suoi 72 rack del sistema Blue Gene/P IBM, 294.912 processori e picchi prestazionali di un petaflop (un milione di miliardi) JuGene è il quarto supercomputer più potente al mondo.

*basato su 100 TB maggio 2009, 3,7 h, la stima si basa sull’uso dello stesso hardware

**JuGene richiede circa 52800 kWh per un giorno di funzionamento sulla macchina completa, la dimostrazione IBM ha richiesto un livello stimato in 700 kWh

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: