Supermicro, Inc. lanceert een full stack geoptimaliseerde opslagoplossing voor AI- en ML-datapijplijnen, van dataverzameling tot high performance levering van data. Deze nieuwe oplossing maximaliseert de time-to-value van AI door GPU-datapijplijnen volledig verzadigd te houden. Voor AI-training kunnen enorme hoeveelheden ruwe data op petascale capaciteit worden verzameld, getransformeerd en in de AI-workflowpijplijn van een organisatie worden geladen.

Deze Supermicro-oplossing met meerdere lagen heeft bewezen multi-petabyte gegevens te kunnen leveren voor AIOps en MLOps in productieomgevingen. De volledige oplossing van Supermicro met meerdere rekken is ontworpen om implementatierisico's te verminderen, organisaties in staat te stellen modellen sneller te trainen en de resulterende gegevens snel te gebruiken voor AI-inferentie. Petabytes aan ongestructureerde gegevens die gebruikt worden bij grootschalige AI-training moeten beschikbaar zijn voor de GPU-servers met lage latencies en hoge bandbreedte om de GPU's productief te houden.

Supermicro's uitgebreide portfolio van op Intel en AMD gebaseerde opslagservers is een cruciaal onderdeel van de AI-pijplijn. Hiertoe behoren de Supermicro Petascale All-Flash opslagservers, die een capaciteit van 983,04 TB per server aan NVMe Gen 5 flashcapaciteit hebben en tot 230 GB/s aan leesbandbreedte en 30 miljoen IOPS leveren. Deze oplossing bevat ook de Supermicro SuperServer 90 drive bay opslagservers voor de capaciteitsobject tier.

Deze complete en geteste oplossing is wereldwijd beschikbaar voor klanten in ML, GenAI en andere computationeel complexe workloads. De nieuwe opslagoplossing bestaat uit: All-Flash tier - Supermicro Petascale Storage Servers; Application tier ? Supermicro 8U GPU servers: AS -8125GS-TNHR en SYS-821GE-TNHR; Object tier - Supermicro 90 drive bay 4U SuperStorage Server met Quantum ActiveScale objectopslag; Software: WEKA Data Platform en Quantum ActiveScale objectopslag; en Schakelaars: Supermicro InfiniBand en Ethernet Switches.