Previsioni (top 5) per il 2013 da DataCore
Le app di primo livello saranno sempre più virtuali e le prestazioni critiche
Gli sforzi per virtualizzare sempre di più il data center continueranno e vedremo una tendenza ancora più marcata a spostare le applicazioni di primo livello (ERP, database, sistemi di posta, OLTP e così via) su piattaforme di virtualizzazione. Le ragioni principali sono la convenienza economica e una maggiore produttività.
Gli ostacoli principali alla virtualizzazione delle app di primo livello sono però in gran parte legati allo storage.
Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine virtuali (VM) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità. Inoltre, mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le prestazioni.
I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei benefici. Per questo, le aziende e dipartimenti IT sono alla ricerca di un approccio più intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la tradizionale tattica di “utilizzare più hardware per risolvere il problema” non è più praticabile.
Lo storage non è solo dischi fissi e le tecnologie flash SSD saranno usate ovunque
Un’altra grande tendenza legata alla virtualizzazione delle applicazioni di primo livello è il proliferare delle tecnologie SSD basate su memoria flash. La ragione è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su tecnologia di memoria elettronica ad alta velocità.
La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo costosa per essere adottata in modo massiccio. Pur restando più cara della tecnologia utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari sta portando a un abbassamento dei prezzi. Tuttavia, la tecnologia flash è soggetta a deterioramento, e l’utilizzo di applicazioni che richiedono un numero elevato di cicli di scrittura può avere un impatto sulla sua durata nel tempo.
Nonostante ciò, i dispositivi flash sono una parte inevitabile del nostro futuro e devono essere integrati nella nostra filosofia architetturale. La convenienza economica ci sta già spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o su meno costosi, ma più lenti, dischi fissi. Questo, a sua volta, incrementa la richiesta di software di auto-tiering in grado di operare su tutta l’azienda per ottimizzare le prestazioni e raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più conveniente che sia in grado di offrire prestazioni accettabili.
Siamo di fronte a una costante e insaziabile domanda di spazio di archiviazione: la crescita sta continuando con un tasso superiore al 50% all’anno. Ovviamente, la necessità non è solo quella di avere più dischi hardware per aumentare la capienza. Gli utenti richiedono invece uno storage automatico e autogestito, scalabile, dal rapido provisioning, con prestazioni veloci e in grado di garantire un livello elevatissimo di continuità operativa.
Anche in questo caso è necessario un “software intelligente” per semplificare e automatizzare la gestione dello storage.
Le architetture storage definite dal software conteranno più dell’hardware
Queste tendenze – unite all’esigenza degli utenti IT di avere hardware di storage intercambiabile all’interno delle infrastrutture virtuali – avranno un enorme impatto sul modo in cui valutiamo, compriamo e utilizziamo lo storage. Dal 2013 in avanti, l’IT dovrà necessariamente considerare lo storage definito dal software come un elemento essenziale dei data center.
Oggi gli utenti si trovano di fronte a nuove dinamiche e veloci cambiamenti, e quindi non possono rimanere intrappolati nelle rigide architetture cablate di ieri. Le infrastrutture poggiano su tre pilastri – elaborazione, rete e storage – e in ognuno di essi, in un mondo basato sul software e guidato dalle applicazioni, le decisioni sull’hardware passeranno in secondo piano.
Chiaramente, il grande successo di VMware e di Microsoft Hyper-V dimostra che la virtualizzazione dei server porta un enorme valore. Allo stesso modo, l’hypervisor storage e la virtualizzazione a livello di storage sono fondamentali per sbloccare le catene hardware che costituiscono un’àncora per i data center di nuova generazione.
Lo storage definito dal software fa nascere l’esigenza di un hypervisor storage
La stessa riflessione che ha cambiato il nostro modo di guardare i server va fatta sul mondo dello storage, e il software intelligente è il catalizzatore che lo permette. In effetti, il ruolo primario di un hypervisor storage è quello di virtualizzare le risorse di storage per ottenere gli stessi benefici – agilità, efficienza e flessibilità – che la tecnologia dell’hypervisor server ha portato a processori e memoria.
Quest’anno, il software prenderà il suo posto al tavolo e comincerà trasformare il modo in cui pensiamo allo storage.