Il server come commodity

DataStorage

Il costo della tecnologia, dicono gli esperti, sta rapidamente diminuendo. E il server, dopo il Pc e prima dello storage sta affrontando la sua trasformazione in commodity.

I mainframe rimangono ancora nel cuore dei sistemi informativi di molte aziende, ma nel tempo anche queste si sono dovute equipaggiare con un esercito di server più economici, di sistemi di storage che hanno creato strumenti di elaborazione potenti, ma complessi ed esigenti in fatto di energia. Una delle ragioni di questa complessità è che l’hardware è stato nel tempo acquistato per svolgere un solo compito particolare. Il risultato è che tutta l’infrastruttura It lavora molto spesso a non più del 20% della sua potenzialità. E in questa che è stata definita come una cacofonia di server, di storage e di reti si sente sempre più la necessità di un’orchestrazione che consenta di fare quello che serve al momento giusto e con le giuste risorse. Stiamo parlando di quell’utility computing che prende nella documentazione del marketing dei vari vendor nomi diversi, ma prefigura una visione di paradiso digitale che sembra assomigliare sempre più a una illusione. Tuttavia non mancano strumenti e tecnologie che ci mettono in grado di avvicinarsi all’optimum per approssimazioni successive. Stando dunque emergendo anche nel mondo più stabile dell’infrastruttura It, quello dei server, soluzioni radicali come il data center portabile in container di Sun, che prefigura una rete decentrata di piccoli data center aziendali che facendo leva sulle capacità di banda della rete potrebbe porre fine ai concentramenti di potenza di calcolo e di consumi energetici delle attuali soluzioni. E non sembri qualcosa di futuristico, perché anche per l’Italia trapelano notizie che soluzioni di questo tipo sono allo studio. Si tratta forse di una soluzione estrema di virtualizzazione delle risorse. La virtualizzazione è dunque il nuovo modello dell’infrastruttura It ad ogni livello topologico e i server di nuova generazione che accolgono al loro interno Cpu di nuovo tipo lo stanno già adottando con la collaborazione dei principali vendor di software di questo tipo da Xensource a Vmware. Il costo della tecnologia, dicono gli esperti sta andando verso il basso molto velocemente. E il server, dopo il Pc e prima dello storage sta affrontando la sua trasformazione in commodity.

Ma questo concetto di mettere in pool le risorse di elaborazione sta passando anche nelle soluzioni riguardanti lo storage. E qui i nomi nuovi sono quelli di startup company come 3Par che hanno introdotto il concetto di provisioning sottile: ogni applicazione gira con le quantità minime di risorse di disco, ma il sistema trova in modo estremamente rapido spazio alla applicazione quando il momento lo richiede. Da ultimo, ma non ultima, la rete. Le tecnologie di networking orientate alle applicazioni sono al centro dello sviluppo di Cisco. La rete deve essere abbastanza intelligente da prevedere i problemi prima che arrivino al data center: le punte di traffico vanno individuate prima che arrivino a sommergere di lavoro un server oppure le minacce alla sicurezza vanno isolate e messe in quarantena prima che arrivino a infettare un’applicazione. Alle architetture di base fornite in abbondanza da Intel, Amd e Sun con Cpu dotate di parti di silicio specializzate per il software di virtualizzazione fanno da specchio i nuovi sistemi operativi, da Windows Server a Solaris, che inglobano nel loro kernel un primo strato o intere soluzioni di virtualizzazione. Si possono dunque impacchettare decine di server in formato blade che hanno al loro interno unità di elaborazione multicore in rack che prima accoglievano un solo server con una sola Cpu.

Autore: ITespresso
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore