Pure Storage heeft nieuwe gevalideerde referentiearchitecturen aangekondigd voor het uitvoeren van generatieve AI-gebruikscases, waaronder een nieuwe NVIDIA OVX-ready gevalideerde referentiearchitectuur. Als leider op het gebied van AI wapent Pure Storage, in samenwerking met NVIDIA, wereldwijde klanten met een bewezen raamwerk om de high-performance data- en compute-eisen te beheren die ze nodig hebben voor succesvolle AI-implementaties. Voortbouwend op deze samenwerking met NVIDIA levert Pure Storage de nieuwste technologieën om te voldoen aan de snel groeiende vraag naar AI in de hedendaagse ondernemingen.

Nieuwe gevalideerde ontwerpen en proofs of concept omvatten: Retrieval-Augmented Generation (RAG) Pipeline voor AI-inferentie: Om de nauwkeurigheid, valuta en toename van de inference-mogelijkheden voor grote taalmodellen (LLM's) te verbeteren, creëerde Pure Storage een RAG-pijplijn die gebruikmaakt van NVIDIA NeMo Retriever microservices en NVIDIA GPU's en Pure Storage voor all-flash enterprise storage. Als gevolg hiervan versnelt Pure Storage de tijd tot inzicht voor bedrijven die hun eigen interne gegevens gebruiken voor AI-training, waarbij het gebruik van hun meest recente gegevens wordt gegarandeerd en de noodzaak voor voortdurende hertraining van LLM's wordt geëlimineerd. Gecertificeerde NVIDIA OVX Server Storage Referentie Architectuur: Pure Storage heeft de OVX Server Storage-validatie behaald en biedt zakelijke klanten en channelpartners flexibele referentiearchitecturen voor opslag, gevalideerd aan de hand van belangrijke benchmarks om een sterke infrastructuurbasis te bieden voor AI-hardware en -softwareoplossingen die qua kosten en prestaties geoptimaliseerd zijn. Deze validatie biedt extra keuze voor AI-klanten en is een aanvulling op de vorig jaar aangekondigde certificering van Pure Storage voor NVIDIA DGX BasePOD.

Verticale RAG-ontwikkeling: Om de succesvolle toepassing van AI in verticale sectoren te versnellen, creëert Pure Storage in samenwerking met NVIDIA verticale specifieke RAG's. Ten eerste heeft Pure Storage een RAG-oplossing voor de financiële dienstverlening gemaakt om enorme datasets samen te vatten en te doorzoeken met een hogere nauwkeurigheid dan kant-en-klare LLM's. Instellingen voor financiële dienstverlening kunnen nu sneller inzicht krijgen door AI te gebruiken om direct samenvattingen en analyses te maken van verschillende financiële documenten en andere bronnen. Aanvullende RAG's voor de gezondheidszorg en publieke sector worden uitgebracht.

Terwijl Run.AI het GPU-gebruik optimaliseert door middel van geavanceerde orkestratie en planning, stelt het Weights & Biases AI-ontwikkelingsplatform ML-teams in staat om de levenscyclus van de modelontwikkeling te bouwen, te evalueren en te beheren. Daarnaast werkt Pure Storage nauw samen met AI-gerichte reseller- en servicepartners, waaronder ePlus, Insight, WWT en anderen, om gezamenlijke AI-implementaties bij klanten verder te operationaliseren. Executive Insight: "Pure Storage herkende de toenemende vraag naar AI al vroeg en leverde een efficiënt, betrouwbaar en krachtig platform voor de meest geavanceerde AI-implementaties.

Door de langdurige samenwerking met NVIDIA komen de nieuwste gevalideerde AI-referentiearchitecturen en generatieve AI proofs of concept naar voren als cruciale componenten voor wereldwijde ondernemingen bij het ontrafelen van de complexiteit van de AI-puzzel".