S.O.S. backup

Management

Crescono i costi di gestione, dilagano i dati e diminuisce il tempo utile per le operazioni di mantenimento

I professionisti dei sistemi informativi che devono immagazzinare e gestire la valanga di byte e di bit che le loro aziende producono quotidianamente sanno che è tutta una questione di denaro. Alcune stime di Strategic Research valutano per le spese di gestione di una rete, memorizzazione e backup inclusi, una somma superiore ai 150 mila euro all’anno anche per reti di piccole dimensioni. In termini di tempo si parla di 950 ore per sito per anno da dedicare ai compiti di gestione del backup e di più di 150 ore per anno di produttività persa dagli utenti per errori di backup. E la crescita esponenziale del flusso dei dati non accenna a diminuire. Anche nel caso di piccole reti le metodologie e i mezzi fin qui usati per domare il backup dei dati non funzionano più. Nelle reti di maggiori dimensioni i sistemi di backup su nastro o su disco su pochi drive presenti nei server collegati in rete non possono neppure iniziare ad archiviare e salvare le centinaia di Gigabyte di informazione che si generano quotidianamente. La situazione sempre più critica richiede di automatizzare lo storage. Non riuscire a farlo può portare più problemi di quelli, non banali, che si devono affrontare per mettere mano e far partire un sistema automatico di backup.Circolano stime incredibili sull’incremento di crescita dei dati con previsioni di raddoppio anno su anno nel medio periodo. Contemporaneamente si restringono per tutte le reti le finestre temporali da dedicare alle operazioni di backup: i dati sulle reti aumentano, ma diminuiscono i tempi per metterle al sicuro. Il backup e la messa al sicuro di centinaia di Gigabyte di dati all’ora spesso richiedono un tempo superiore a quello di un turno di personale di un data center. Evitare l’automazione e procedere con metodi manuali non fa risparmiare tutto sommato né denaro né costi di personale. Insomma l’automazione del backup su disco o su nastro con sottosistemi dedicati genera riduzione di costi, migliore affidabilità e maggiore sicurezza dei dati. L’uso di più drive e di un numero adeguato di cartucce in una rete composta da diversi server blocca il costoso proliferare di sistemi singoli collegati biunivocamente a ogni server. I costi di gestione che dipendono direttamente dal tempo necessario per le sessioni di backup, per la manipolazione manuale delle memorie e per il recupero dei dati sono ridotti in modo drastico. Ma ne trae giovamento anche la sicurezza: l’automazione dello storage tramite tecnologia lo rende più affidabile e in molti casi anche fault tolerant, senza perdite di dati dovute a blackout energetici. Le sessioni di backup si chiudono tempestivamente e senza errori di inserimento di cartuccia nel drive. Ma esiste una situazione giusta per l’uso di dischi , di nastri o di entrambi. A molti dati su hard disk non si accede spesso o in modo regolare per cui vale la pena di spostarli su di un sistema automatico a nastro fino al momento in cui si rendano di nuovo necessari (nearline storage). Il caricamento delle cartucce a nastro o dei dischi ottici sui drive è attuato da robot e non manualmente con calo drastico del costo per Megabyte. Le librerie a nastro di tipo DLT, che sono composte da diversi rack che contengono le cartucce e da un meccanismo robotizzato che le sistema nei drive possono partire da sei oppure otto cartucce per arrivare a centinaia. Nella fascia alta del mercato si può arrivare a centinaia di drive con migliaia di cartucce. I problemi e i guasti sono identificati in modo automatico e in caso di perdita dei dati si procede in modo automatico al loro recupero. Queste librerie sono gestite da un software applicativo proprietario o di terze parti, mentre il sistema software di gestione dei dati si incarica della corretta gerarchia di memorizzazione dei dati. La gestione arriva fino a permettere in modo concorrente il backup con un drive e il restore con un altro, con una migrazione continua dei dati avanti e indietro tra nastri e dischi. Nei sistemi fault tolerant il guasto di un drive provoca l’immediato backup con un altro e il contemporaneo inizio delle operazioni di recovery. Per prezzo e prestazioni si distinguono gli autoloader a nastro che caricano automaticamente in modo sequenziale i nastri, spesso in un unico drive. Meno sofisticati e complessi consentono un approccio iniziale e sicuro alle problematiche dell’automazione del backup in rete. Molte organizzazioni utilizzano tutte le modalità di archiviazione: online ( su disco), nearline ( con librerie o jukebox) e offline ( con dischi rimuovibili o nastri), Anche per lo storage in rete vale la regola per cui solo il 20% dell’informazione sta online su dischi usati in modo continuativo, mentre per il restante 80% la frequenza d’uso cala di molto. Ma anche i più capienti hard disk faticano a star dietro alla crescita dei dati da gestire. Una soluzione di tipo nearline consente di accedere ai dati in modo occasionale anche con tempi inferiori ai 30 secondi. La sequenzialità inerente alla tecnica a nastro con relative lentezza nelle funzioni di richiamo può essere superata con opportuni accorgimenti che migliorano velocità e tempi di accesso. Con lo storage di tipo offline si arriva a media rimuovibili che spesso sono conservati in località remote fino al loro uso. È questo il regno della memoria su nastro. Nelle Storage Area Network ( SAN ) in cui i sottosistemi di memorizzazione sono attaccati direttamente alla rete senza passare per i server, la rete stessa funziona da collegamento intelligente tra questi sottosistemi che diventano in pratica un unico deposito dei dati. Gli utenti possono accedere a ogni tipo di informazione in rete, in modo indipendente dall’origine o dal sottosistema usato. Ma il backup di informazioni mission critical senza passare per server di storage ha portato con sé nuove sfide e nuovi problemi. Proprio perché nastri e dischi operano in modo diverso sono difficili da integrare in un ambiente eterogeneo. Le aziende che collaborano nella SNIA (Storage Networking Industry Association) sono da sempre al lavoro su nuovi standard di interoperabilità. Gigabit Ethernet e Fibre Channel hanno reso possibili collegamenti ad alta velocità tra sottosistemi a nastro e sottosistemi a disco. Gigabit Ethernet fa leva sull’enorme installato delle reti Ethernet, ma Fibre Channel è nato per lo storage.

Autore: ITespresso
Clicca per leggere la biografia dell'autore  Clicca per nascondere la biografia dell'autore