Supermicro, ein Anbieter von umfassenden IT-Lösungen für KI, Cloud, Storage und 5G/Edge, bringt eine optimierte Full-Stack-Speicherlösung für KI- und ML-Datenpipelines auf den Markt - von der Datenerfassung bis zur hochleistungsfähigen Datenbereitstellung.
Die neue Lösung maximiert die Time-to-Value von KI, indem sie die GPU-Datenpipelines voll ausnutzt. Für das KI-Training können riesige Rohdatenmengen mit Kapazitäten im Petascale-Bereich gesammelt, transformiert und in die KI-Workflow-Pipeline eines Unternehmens geladen werden. Die Multi-Tier-Lösung von Supermicro liefert nachweislich Datenmengen im Petabyte-Bereich für AIOps und MLOps in Produktionsumgebungen. Die gesamte Multi-Rack-Lösung von Supermicro wurde entwickelt, um das Implementierungsrisiko zu reduzieren und es Unternehmen zu ermöglichen, Modelle schneller zu trainieren und die resultierenden Daten schnell für KI-Inferenz zu nutzen. „Mit 20 PB pro Rack an Hochleistungs-Flash-Speicher mit vier anwendungsoptimierten Nvidia HGX H100 8-GPU-basierten luftgekühlten Servern oder acht Nvidia HGX H100 8-GPU-basierten flüssigkeitsgekühlten Servern können Kunden ihre KI- und ML-Anwendungen im Rack-Format betreiben und beschleunigen", sagt Charles Liang, President und CEO von Supermicro. „Die Lösung bietet einen Lesedurchsatz von 270 GB/s und 3,9 Millionen IOPS pro Speichercluster in der kleinsten Implementierung und kann problemlos auf Hunderte von Petabytes skaliert werden. Durch den Einsatz der neuesten Supermicro-Systeme mit PCIe 5.0- und E3.S-Speichergeräten und der WEKA Data Platform-Software können Anwender die Leistung von KI-Anwendungen mit dieser praxiserprobten Lösung im Rack-Format deutlich steigern. Mit unserer neuen Speicherlösung für KI-Training können Kunden die Auslastung unserer fortschrittlichsten Lösungen für GPU-Server im Rack-Format maximieren, ihre Gesamtbetriebskosten senken und die KI-Leistung steigern."