Il software-defined storage rivoluzionerà il settore dello storage: le 5 previsioni di George Teixeira
Nel 2015 la filosofia del “software-defined everything” e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di ‘fare di più con minori risorse’, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale. Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.
#1: nel 2015 il software-defined storage conquisterà il mercato.
#2: nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei ‘server di storage’ e le SAN virtuali iper-convergenti. L’ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise (al proposito si veda l’intervento “Dell PowerEdge Servers Make Great Software-Defined Storage Solutions” pubblicato sul 4Enterprise Blog di Dell).
#3: nel 2015 dischi e flash “faranno squadra” e gli stack software copriranno entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l’acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento.
Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse (per saperne di più si veda l’intervento “A New Breakthrough Random Write Accelerator”, in cui si parla dell’impatto del sistema DataCore di accelerazione della scrittura su dischi e tecnologia flash). I produttori vorrebbero farci credere che i clienti sposteranno lo storage al 100% su flash, ma un cambiamento di questo genere non è sostenibile a livello di costi, soprattutto considerando l’ampiezza della base installata.
Nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.
#4: nel 2015 le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.
#5: nel 2015 la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all’elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili (si veda al proposito l’intervento dedicato alle funzionalità di Quality-of-Service di DataCore). Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.
Il software-defined storage deve continuare a evolvere per rispondere a queste esigenze. E’ necessario creare servizi per i dati virtuali che offrano servizi di storage slegati dai dispositivi hardware e che siano in grado di regolare in modo più automatizzato le modalità con cui vengono sfruttate le risorse dell’infrastruttura