Ibm, Intel e Cisco credono nell’High Performance Computing

DataManagementStorage

La domanda cresce a doppia cifra, le aziende comprendono i vantaggi dei processi di calcolo in parallelo dell’ HPC e il mercato decolla

L’High Performance Computing entra sempre di più nell’esperienza delle aziende. Calcoli che con strutture inadeguate richiederebbero anni di elaborazione possono essere eseguiti nel giro di poche ore o al massimo di qualche giorno. Questo è possibile grazie alle elevate prestazioni dei nuovi microprocessori, ma anche alla capacità di “spezzettare” un singolo problema in diverse frazioni che possono essere processate in parallelo. E’ un vantaggio strategico che tante imprese hanno imparato a valutare per poter prendere le decisioni più importanti, in meno tempo. Tanto per fare un esempio il sistema HPC più veloce nel 2007 arrivava a capacità di calcolo di 280,6 Teraflop (280.600 miliardi di operazioni in virgola mobile per secondo), ma appena sei mesi dopo il record era già di 478,2 Teraflop.

In termini di cifre quello dell’High Performance Computing è un mercato che, nel solo segmento regionale europeo, e per quanto riguarda i cluster dipartimentali, ha fatto registrare una crescita delle revenue anno su anno del 19% per un valore complessivo di 373 milioni di dollari.

E si può tranquillamente affermare che l’High Performance Computing sia letteralmente decollato negli ultimi cinque anni. Secondo una ricerca IDC uno su 5 dei microprocessori venduti nel mercato server è utilizzato in un cluster HPC. E i ricavi complessivi del 2008 supereranno i 12 miliardi di dollari. I protagonisti del settore non si contano più sulla punta delle dita di una sola mano, basta citare: IBM, ma anche HP, SGI, Dell, Bull, Sun Microsystems.

In questo contesto si inserisce l’evoluzione del nuovo centro IBM di Montpellier.

“Il centro di Montpellier si espande grazie alle nuove tecnologie HPC di IBM, Intel e Cisco per offrire ai clienti, così come ai partner e ai vendor, la possibilità di testare e sottoporre ai controlli di benchmarking software analitici e tutte quelle applicazioni per il design aerospaziale e l’ingegneria che richiedono altissime capacità di calcolo”. Con questo pensiero Dave Jursik, VP of sales for IBM Deep Computing, ha aperto la giornata di incontro per l’inaugurazione del Centro.

nuovoingress.png

Montpellier sarà quindi in grado di rispondere sempre meglio alle esigenze dei clienti, considerata la crescente richiesta nel mondo IT di ambienti di testing HPC per identificare le tecnologie più idonee a ottenere i risultati migliori per la propria azienda.

datacenter.png

Un dettaglio del data center di Montpellier

La collaborazione tra IBM e Intel in questo ambito è molto stretta. Sono le stesse parole di Richard Dracott, General Manager HPC Manager Digital Enterprise Group Intel Corporation, a evidenziare in che direzione Intel ha orientato i propri sforzi e i motivi del successo della collaborazione con IBM: “Il modello Tick/Tock di Intel nello sviluppo dei microprocessori è più florido che mai. Lo dimostrano le accoppiate a 45nm Penryn e Nehalem, ma ancora di più lo dimostreranno le nuove architetture Westmere e SandyBridge a 32 nm, previste per il futuro. E la preferenza per Intel di 354 aziende della Top500 ne è la conferma. Il lavoro in collaborazione con IBM inoltre si avvantaggia di un’esperienza comune nell’ambito cluster/server di più di 10 anni, riconosciuta nella realizzazione di soluzioni al massimo dell’affidabilità a cui si aggiungono i 6 anni con VmWare per quanto riguarda la virtualizzazione”

salaa.png

La “sala macchina” del centro HPC di Montpellier

L’inaugurazione ha rappresentato anche l’occasione per l’annuncio del nuovo server IBM x3450, un quad-core a 1.600 MHz di Front Side Bus che, con un investimento modesto, può rappresentare l’hardware di base ideale per i cluster HPC.

IBM x3450 vanta performance migliorate più dell’11% rispetto ad architetture simili a 1.300 MHz.

Tra le case history più interessanti di Montpellier basti citare quelle di Tetra Pack e della banca privata Sal. Oppenheim. Tetra Pack si serve delle simulazioni al computer rese possibili dai cluster Intel/IBM per sviluppare le macchine del futuro per il riempimento dei contenitori di cibo . Sal. Oppenheim, invece, utilizza i servizi di HPC per valutare la complessità dei propri prodotti finanziari e per i calcoli di esposizione al rischio in scenari simulati (Monte Carlo, solo per citare un caso).

visualization.png

Un esempio della visualizzazione dei dati grazie al Deep Computing

Di grande interesse, infine, anche i vantaggi dell’HPC nell’ambito della Deep Computing Visualization, ne ha parlato François-René Rougeaux. “La visualizzazione è una delle possibilità in più e di maggior impatto offerte dalle soluzioni HPC. Si tratta di un metodo per rappresentare enormi quantità di dati complessi in modalità immediatamente comprensibili per i decision maker”. E vi ricorrono sia imprese petrolifere per i calcoli del fabbisogno e le decisioni riguardo la quantità di greggio da estrarre, sia servizi finanziari, per visualizzare in modo migliore i possibili scenari, sia i laboratori aerospaziali per osservare il comportamento dei componenti nei crash test.

Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore