Le previsioni 2017 di George Teixeira, DataCore
Lo storage si è trasformato: è un’infrastruttura server + software-defined!
Siamo nel mezzo di un‘inevitabile e crescente tendenza in cui sono i server a definire che cos’è lo storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i server multi-core pre-configurati e arrivare ai sistemi di storage migliori del mondo in termini di prestazioni, bassa latenza e rapporto prezzo-prestazioni. I tradizionali sistemi di storage non sono più in grado di tenere il passo e sono in declino. Il risultato è che vengono sempre più sostituiti con server economici e soluzioni infrastrutturali software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare. La funzione di storage e i servizi dati a essa associati sono ora gestiti dal software e stanno diventando semplicemente un altro “carico di lavoro applicativo” che gira su queste convenienti piattaforme server. E questa ondata di sistemi di storage flessibili basati su server sta già facendo registrare nel settore un impatto devastante.
Commercializzati come sistemi SAN server, SAN virtuali, web-scale, scale-out o iper-convergenti, sono un insieme di server standard pre-configurati, schede flash e unità disco. È però il software che definisce veramente il loro valore. Lo storage è diventato un gioco di server. Il software di elaborazione parallela e la capacità di sfruttare la tecnologia multi-core dei server è il principale elemento capace di modificare le regole del gioco. Unito all’infrastruttura software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “server come il nuovo storage”. Per maggiori informazioni consultate il seguente report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/
Che cosa c’è oltre la flash?
Ricordate quando la flash era considerata la grande novità? Ora è realtà. Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: se la flash oggi è una realtà e le prestazioni e la produttività sono ancora un problema per molte applicazioni enterprise, specialmente quando si parla di database, allora bisogna parallelizzare l’elaborazione dell’I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molti motori di calcolo per gestire e rimuovere i colli di bottiglia e per innalzare i ritardi delle code nello stack, avvicinandoli alle applicazioni, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da flash/SSD. La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’unione di flash e I/O parallelo consente agli utenti di far funzionare le applicazioni più velocemente, completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.