Hu Yoshida: i trend del 2012
Cinque macro tendenze domineranno il settore dell’IT nel 2012: l’esplosione dei Big Data, l’aumento della virtualizzazione storage, il consolidamento verso la convergenza, la necessità del raggiungimento di una reale efficienza energetica e il bisogno di colmare la lacuna generata dall’eccessivo consumo.
1. Big Data
Nel 2011 si è parlato molto del “Problema dei Big Data” e sicuramente non ci saranno sostanziali cambiamenti per tutto il 2012. Mentre però lo scorso anno l’attenzione era rivolta al modo in cui dare un senso logico a grandi quantità di dati generati da macchine provenienti da una sola fonte, oggi le aziende hanno compreso che il problema reale è insito nello sviluppo delle applicazioni: vi sono quantitativi di dati generati da migliaia di diverse applicazioni ed è necessario trovare un modo per raggrupparli e trasformarli in informazioni utili che possano apportare valore aggiunto all’azienda. E’ molto più difficile analizzare e gestire quantitativi di piccoli dati rispetto ad un grande insieme di dati; ed è in questa direzione che le aziende si muoveranno alla ricerca di innovazioni, e il raggruppamento dei dati che precedentemente erano immagazzinati in applicazioni specifiche supporterà la crescita a lungo termine.
Negli ultimi anni, le aziende hanno deciso di conservare un numero sempre maggiore di dati per cercare di aumentare il proprio vantaggio competitivo rispetto alla concorrenza. E tale tendenza continuerà ad essere confermata finché non sarà bilanciata da modifiche normative. Inoltre, alcune disposizioni imminenti, come la riforma dell’Unione Europea della Direttiva sulla protezione dei dati, accentueranno ancora di più all’attenzionesulla questione della gestione e della conformità dei dati. Le aziende cercheranno infrastrutture che consentano l’implementazione a basso costo di policy di gestione dei dati non senza qualche difficoltà nell’evolvere verso modelli di consumo cloud, proteggendo al tempo stesso le informazioni dall’esposizione e da altri ordinamenti legali.
Viste tali considerazioni, per avere successo nel 2012, il canale dovrà dimostrare realmente il proprio valore ai clienti, anticipando l’onda e mostrando di comprendere le tendenze in crescita, come i modelli di consumo del cloud. Il canale avrà inoltre bisogno di sviluppare una profonda conoscenza verticale, al fine di guidare i propri clienti attraverso i cambiamenti normativi e offrire soluzioni di gestione delle informazioni che consentano, a questi ultimi, di massimizzare il valore dei data asset dei propri clienti. Recentemente vi sono state grandi innovazioni in alcuni settori (uno fra tutti quello sanitario), ed è facile immaginare che i rivenditori specializzati continuino a differenziarsi con soluzioni allineate verticalmente. A più lungo termine, tali rivenditori si troveranno a dover decidere se fornire loro stessi queste soluzioni cloud, oppure se offrire la tecnologia per i fornitori del cloud.
2. Aumento dell’attenzione rivolta alla virtualizzazione dello storage
Mentre i volumi di dati continueranno a crescere esponenzialmente, il budget per aumentare la capacità di storage sarà sempre più limitato a causa della continua incertezza economica globale. Per superare queste difficoltà, le aziende cercheranno nuove modalità per aumentare l’utilizzo delle loro risorse di storage.
Un punto a favore è rappresentato dalla grande capacità inutilizzata e sovra-allocata che deve essere riabilitata e con cui è possibile aumentare l’utilizzo di risorse di storage dai livelli storici del 20-30% fino al 50-60%, grazie a nuove tecnologie quali il thin provisioning, il dynamic tiering, la deduplicazione e l’archiviazione attiva. Le società che utilizzano le sopracitate funzionalità detengono una posizione di vantaggio competitivo. Le imprese che invece non hanno investito in queste tecnologie al momento dell’acquisto dei loro sistemi di storage non devono attendere altri tre anni mentre concludono la capitalizzazione delle loro risorse, ma possono facilmente applicarle ad un prodotto come la Virtual Storage Platform (VSP) di Hitachi, che attiverà tutte queste nuove funzionalità sulle risorse attualmente esistenti mediante la virtualizzazione dello storage. Tali tecnologie possono quindi supportare le aziende nell’aumento dell’utilizzo dei dati per tutto il nuovo anno, senza costringerle all’acquisto di nuova capacità aggiuntiva o vincolarle a trasferire e sostituire il loro storage legacy.
3. Consolidamento verso la convergenza
Per ridurre i costi, l’IT si è recentemente concentrato sul consolidamento dei server da parte di hypervisor, così come sul consolidamento dello storage sulla SAN. Sono già stati raggiunti i primi significativi risultati e, per una maggiore efficienza dal punto di vista dei costi, l’attenzione deve ora essere spostata verso la convergenza dei server, dello storage, delle reti e delle applicazioni.
Le interfacce di programmazione di un’applicazione (API), che scaricano il carico di lavoro sullo storage, possono rendere i server e la memoria più efficienti. Il software di orchestration consentirà infatti una convergenza della gestione, dell’automazione, del provisioning e dell’attività di reporting in infrastrutture di server, di storage e di rete locali, remote e basate sul cloud. Le architetture di riferimento per applicazioni quali i database Exchange e Oracle, preconfigurate e precertificate, abbrevieranno inoltre i tempi e gli sforzi necessari per supportare le applicazioni.
Mentre il consolidamento verteva principalmente sulla riduzione dei costi di acquisizione, la convergenza è orientata sulla riduzione dei costi operativi, quali il provisioning, la migrazione, il bilanciamento del carico e la gestione globale dell’infrastruttura, offrendo contemporaneamente tempi più rapidi di implementazione e di erogazione dell’applicazione. La convergenza in silos di infrastrutture ha anche un’implicazione riguardante la modalità con la quale l’IT è gestito. Molti IT shop sono organizzati in silos, con amministratori separati per server, storage, reti, database e hypervisor, mentre la soluzione ottimale per ottenere una buona convergenza consisterebbe nell’avere un’organizzazione di tipo orizzontale. Come tutte le tecnologie, il successo nella realizzazione dei vantaggi della convergenza nel 2012 dipenderà in via definitiva dalle persone, dalla leadership del processo e della gestione.
4. L’importanza di una reale efficienza energetica
L’energia, il raffreddamento e le emissioni di CO2 diventeranno sempre più importanti con l’aumento della domanda energetica e con l’imposizione delle carbon tax da parte dei diversi Paesi. A loro volta, ai reparti IT, sarà richiesto di assumersi la loro parte di responsabilità per ottenere una maggiore efficienza energetica e contribuire concretamente nel processo di riduzione delle emissioni di CO2.
Uno studio recente condotto dall’Università di Stanford ha dimostrato come il consumo di energia nei Data Center sia aumentato solo del 36% dal 2005 al 2010, meno di quanto anticipato inizialmente. Tale percentuale è la conseguenza dei fattori economici e di un aumento nell’adozione della virtualizzazione dei server, che ha notevolmente ridotto il volume del consumo energetico dei server stessi.
I server hanno giocato un ruolo da protagonisti nella riduzione dei consumi nei Data Center, non esercitando invece alcuna influenza sullo storage. Fortunatamente, vi sono stati alcune recenti implementazioni nello storage e nella gestione dei dati che consentono di rendere lo storage più sostenibile. Dal lato fisicola più importante è stata l’introduzione dei dischi da 2,5 pollici che consumano la metà rispetto ai dischi di 3,5 pollici che fino a poco tempo fa erano utilizzati come standard. In secondo luogo, i fornitori come Hitachi Data Systems, orientandosi verso un packaging più denso di moduli a disco, possono ridurre la superficie occupata e soddisfare appieno i requisiti di raffreddamento, consentendo inoltre la sostituzione delle batterie con dischi solidi per proteggere la memoria cache volatile.
La virtualizzazione dello storage può ridurre la necessità di capacità di storage e i costi energetici e di raffreddamento connessi, nonché automatizzare il tiering di dati meno attivi in dischi di maggiore capacità, eseguire il thin provisioning di volumi sovra-allocati e consolidare silos di storage esterni in un pool comune di risorse storage. La deduplicazione consente inoltre di diminuire la necessità di capacità di disco. Tutti questi miglioramenti possono condurre ad un risparmio del 40%-60% circa nel consumo di energia per lo storage.
Nel 2012 l’attenzione sarà quindi prevalentemente rivolta all’utilizzo dell’energia per lo storage con un’enfasi maggiore sui dischi di dimensione minore, sulla virtualizzazione dello storage e sulla virtualizzazione dei dati, al fine di ridurre i costi energetici e la carbon tax per i Data Center.
5. Colmare la lacuna del consumo
Molti analisti stanno riconoscendo sempre più una crescente lacuna tra la tecnologia e la capacità delle aziende informatiche di sfruttare le caratteristiche del prodotto e il valore che la nuova tecnologia può consentire.
Negli ultimi anni, sono diventate disponibili una serie di nuove tecnologie per le operazioni IT consentendo da un lato, un’adozione significativa della virtualizzazione dei server, e comportando dall’altro una crescente lacuna relativa al consumo. La tecnologia di virtualizzazione dei server sta avanzando rapidamente con VAAI in ESX 4 e a seguito dell’introduzione di vSphere 5. Molti utenti però sono ancora su ESX 3 e non possono usufruire dei vantaggi di VAAI o di vSphere 5, in quanto non hanno potuto aggiornare il loro hypervisor o i loro sistemi storage al fine di supportare queste nuove funzionalità.
I fornitori di storage hanno inoltre introdotto il thin provisioning con le funzionalità zero page reclaim, dynamic tiering, archiviazione e deduplicazione o single instance store, ma diversi amministratori di storage non hanno implementato queste funzionalità che avrebbero consentito di ridurre il loro capitale e i loro costi operativi di almeno il 40%.
Il ritmo di crescita delle imprese è oggi in forte aumento e le organizzazioni stanno spingendo l’IT ad implementare nuove tecnologie in modo sempre più rapido, per garantire una migliore ricettività. Tuttavia, tali accorgimenti sono spesso difficili da realizzare in quanto l’intero settore IT per molti anni ha cercato di ottenere i massimi risultati con investimenti minimi, mantenendo uno staff operativo estremamente ridotto e che passava in continuazione da un compito differente all’altro. È necessario del tempo per imparare l’utilizzo delle nuove tecnologie, pianificarne l’implementazione e l’integrazione con i sistemi esistenti ed eseguire i progetti. Senza l’esecuzione di una pianificazione corretta, l’IT può ritrovarsi ad avere un maggior carico di lavoro e notevoli ritardi.
Nell’immediato futuro, l’IT dovrà saper sfruttare i servizi di terzi per colmare questa lacuna, delegandogli parte del lavoro difficile, per poter incrementare una formazione adeguata del personale operativo sulle attività di pianificazione. La tecnologia da sola non colmerà il gap del consumo: la pianificazione deve includere persone, processi, servizi, aziende oltre che intermediari ed autorità.
Con la prospettiva di dover affrontare ciò che sembra essere un altro anno incerto per le economie mondiali, queste tendenze sono sempre più fortemente collegate alla necessità di continuare a dare forma ai processi, pianificando in modo efficace ed implementando soluzioni più rapide per gestire, incanalare e massimizzare in modo più economico il valore dei dati in continuo aumento.