Pure Storage accelera l’adozione dell’AI enterprise
Pure Storage ha presentato una serie di nuove reference architecture convalidate per l’implementazione di casi d’uso basate sull’AI generativa, tra cui in particolare una nuova architettura NVIDIA OVX-ready. Leader nel settore dell’AI, Pure Storage mette così nelle mani dei clienti di tutto il mondo, in collaborazione con NVIDIA, un framework collaudato che permette di gestire i requisiti di dati e calcolo ad alte prestazioni su cui si basano i deployment AI di successo.
La nuova offerta di proof-of-concept e reference architecture convalidate, comprende:
- Pipeline Retrieval Augmented Generation (RAG) per l’inferenza AI: per migliorare la precisione, l’attualità e la rilevanza delle funzionalità di inferenza per i Large Language Model (LLM), Pure Storage ha creato una pipeline che sfrutta i microservizi NVIDIA NeMo Retriever, le GPU NVIDIA e Pure Storage per la componente storage enterprise all-flash. Di conseguenza, Pure Storage accelera il time-to-insight delle aziende che si avvalgono dei propri dati interni per l’addestramento dell’AI assicurando che vengano utilizzati i dati più recenti ed eliminando la necessità di procedere al retraining costante dei modelli LLM.
- Reference architecture certificata NVIDIA OVX Server Storage: Pure Storage ha conseguito la convalida OVX Server Storage per offrire a clienti enterprise e partner di canale architetture storage flessibili di riferimento convalidate rispetto a importanti benchmark, soluzioni che permettono di ottenere solide fondamenta infrastrutturali per soluzioni AI hardware e software ottimizzate in termini di costi e di prestazioni. Questa convalida offre un’ulteriore possibilità di scelta ai clienti AI affiancandosi alla certificazione ottenuta da Pure Storage su NVIDIA DGX BasePOD annunciata lo scorso anno.
- Sviluppo di RAG verticali: per accelerare l’adozione dell’AI all’interno di settori verticali, Pure Storage sta creando specifiche RAG dedicate in collaborazione con NVIDIA. Come primo passo, Pure Storage ha creato una soluzione RAG per servizi finanziari in grado di riassumere e interrogare dataset massivi con una precisione superiore rispetto ai modelli LLM off-the-shelf. Le società di servizi finanziari possono così ottenere insight più rapidi sfruttando l’AI per creare analisi e riassunti istantanei a partire da una varietà di documenti finanziari e altre fonti. Sono successivamente previste ulteriori RAG dedicate alla sanità e alla pubblica amministrazione.
- Maggiori investimenti nell’ecosistema dei partner AI: Pure Storage sta investendo ulteriormente nel proprio ecosistema di partner AI insieme con NVIDIA attivando nuove partnership con ISV come Run.AI e Weights & Biases. Mentre Run.AI ottimizza l’utilizzo delle GPU mediante tecniche avanzate di orchestrazione e schedulazione, la piattaforma per lo sviluppo AI Weights & Biases permette ai team ML di creare, valutare e governare il ciclo di vita dello sviluppo dei modelli. Pure Storage sta inoltre collaborando con partner focalizzati sulla rivendita e sui servizi AI come ePlus, Insight, WWT e altri ancora per operazionalizzare ulteriormente i deployment AI dei reciproci clienti.