Supermicro führt Full-Stack-Speicherlösung für KI ein

Supermicro bringt Rack-Scale-KI-Speicherlösung zur Beschleunigung von Datenpipelines für Hochleistungs-KI-Training und -Inferenz auf den Markt. (Bild: Supermicro)

Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Supermicro, ein Anbieter von umfassenden IT-Lösungen für KI, Cloud, Storage und 5G/Edge, bringt eine optimierte Full-Stack-Speicherlösung für KI- und ML-Datenpipelines auf den Markt - von der Datenerfassung bis zur hochleistungsfähigen Datenbereitstellung.

Die neue Lösung maximiert die Time-to-Value von KI, indem sie die GPU-Datenpipelines voll ausnutzt. Für das KI-Training können riesige Rohdatenmengen mit Kapazitäten im Petascale-Bereich gesammelt, transformiert und in die KI-Workflow-Pipeline eines Unternehmens geladen werden. Die Multi-Tier-Lösung von Supermicro liefert nachweislich Datenmengen im Petabyte-Bereich für AIOps und MLOps in Produktionsumgebungen. Die gesamte Multi-Rack-Lösung von Supermicro wurde entwickelt, um das Implementierungsrisiko zu reduzieren und es Unternehmen zu ermöglichen, Modelle schneller zu trainieren und die resultierenden Daten schnell für KI-Inferenz zu nutzen. „Mit 20 PB pro Rack an Hochleistungs-Flash-Speicher mit vier anwendungsoptimierten Nvidia HGX H100 8-GPU-basierten luftgekühlten Servern oder acht Nvidia HGX H100 8-GPU-basierten flüssigkeitsgekühlten Servern können Kunden ihre KI- und ML-Anwendungen im Rack-Format betreiben und beschleunigen", sagt Charles Liang, President und CEO von Supermicro. „Die Lösung bietet einen Lesedurchsatz von 270 GB/s und 3,9 Millionen IOPS pro Speichercluster in der kleinsten Implementierung und kann problemlos auf Hunderte von Petabytes skaliert werden. Durch den Einsatz der neuesten Supermicro-Systeme mit PCIe 5.0- und E3.S-Speichergeräten und der WEKA Data Platform-Software können Anwender die Leistung von KI-Anwendungen mit dieser praxiserprobten Lösung im Rack-Format deutlich steigern. Mit unserer neuen Speicherlösung für KI-Training können Kunden die Auslastung unserer fortschrittlichsten Lösungen für GPU-Server im Rack-Format maximieren, ihre Gesamtbetriebskosten senken und die KI-Leistung steigern."

Wir verwenden Cookies auf unserer Website. Einige von ihnen sind für den Betrieb der Website von wesentlicher Bedeutung, während andere uns dabei helfen, diese Website und die Benutzererfahrung zu verbessern (Tracking-Cookies). Sie können selbst entscheiden, ob Sie Cookies zulassen möchten oder nicht. Bitte beachten Sie, dass Sie möglicherweise nicht alle Funktionen der Website nutzen können, wenn Sie sie ablehnen.