ASUS AI POD mit NVIDIA GB200 NVL72-Plattform bereit für Produktionsanlauf zur planmäßigen Auslieferung im März
ASUS gibt bekannt, dass der ASUS AI POD mit der NVIDIA® GB200 NVL72-Plattform für die Produktion bereit ist und im März 2025 ausgeliefert werden soll. ASUS ist weiterhin bestrebt, umfassende End-to-End-Lösungen und Software-Services anzubieten, die alles von KI-Supercomputing bis hin zu Cloud-Diensten umfassen. Mit einem starken Fokus auf die Förderung der KI-Einführung in verschiedenen Branchen ist ASUS in der Lage, Kunden durch das Angebot eines vollständigen Lösungsspektrums dabei zu unterstützen, ihre Markteinführungszeit zu verkürzen.
Von ASUS finanzierter Machbarkeitsnachweis
ASUS ist bestrebt, seinen Kunden einen außergewöhnlichen Mehrwert zu bieten, und wird einen Proof of Concept (POC) für den bahnbrechenden ASUS AI POD auf den Markt bringen, der auf der NVIDIA Blackwell-Plattform basiert. Diese exklusive Gelegenheit steht nun einer ausgewählten Gruppe von Innovatoren offen, die das volle Potenzial des KI-Computings ausschöpfen möchten. Innovatoren und Unternehmen können das volle Potenzial von KI- und Deep-Learning-Lösungen in außergewöhnlichem Umfang aus erster Hand erleben. Um dieses zeitlich begrenzte Angebot zu nutzen, füllen Sie bitte diese Umfrage aus. Das ASUS-Expertenteam aus NVIDIA GB200-Spezialisten wird die Benutzer durch die nächsten Schritte führen.
ASUS AI POD mit NVIDIA GB200 NVL72
Der ASUS AI POD mit NVIDIA GB200 NVL72 bietet durch die nahtlose Integration von GPUs, CPUs und Switches eine außergewöhnliche Leistung. Durch die Verwendung des NVIDIA GB200 Grace Blackwell Superchip und der NVIDIA NVLink-Verbindungstechnologie der fünften Generation bietet der ASUS AI POD eine bemerkenswerte Leistung und Energieeffizienz und eignet sich ideal für Aufgaben, die vom Training von Sprachmodellen mit Billionen von Parametern bis hin zur Durchführung von KI-Inferenzen in Echtzeit reichen.
Außergewöhnliche KI-Leistung: Ein Kraftpaket mit 72 NVIDIA Blackwell GPUs, das eine erstaunliche 30-fache Steigerung der Echtzeit-Inferenzleistung erzielt
Vollständige Rack-Lösung: Integriert GPUs, CPUs und NVIDIA NVLink Switches für ultraschnelle Kommunikation mit geringer Latenz, wodurch das Billionen-Parameter-LLM-Training und die Inferenz beschleunigt werden
Hochgeschwindigkeitsverbindung: Mit NVIDIA NVLink-Technologie der fünften Generation, die eine nahtlose Kommunikation und einen überlegenen Durchsatz ermöglicht
Erweitertes Kühlungsportfolio: Unterstützt sowohl Flüssigkeit-Luft- als auch Flüssigkeit-Flüssigkeit-Kühllösungen, die eine energieeffiziente KI-Rechenleistung ermöglichen und gleichzeitig eine effektive Wärmeableitung gewährleisten
Transformative KI-Infrastruktur
ASUS hat auch fortschrittliche Flüssigkeitskühlungslösungen auf Serverschrankebene integriert. Dazu gehören CPU/GPU-Kühlplatten, Kühlmittelverteilungseinheiten und Kühltürme, die alle sorgfältig darauf ausgelegt sind, den Stromverbrauch zu reduzieren und gleichzeitig die Stromnutzungseffektivität (PUE) in Rechenzentren zu maximieren.
ASUS definiert die KI-Infrastruktur mit einem umfassenden Servicemodell neu und bietet alles von der Planung und Konstruktion bis hin zur Implementierung, Prüfung und Bereitstellung. Dieser allumfassende Ansatz lässt sich nahtlos in Cloud-Anwendungsdienste integrieren und gewährleistet maßgeschneiderte Lösungen, die die Markteinführungszeit für Kunden verkürzen.
Der ASUS AI POD mit NVIDIA GB200 NVL72 unterstreicht eine transformative Entwicklung in der KI-Infrastruktur. Der umfassende Service und die maßgeschneiderte Architektur von ASUS tragen auch dazu bei, den Erfolg der Kunden zu beschleunigen. Weitere Informationen finden Sie hier: Einführung des ASUS AI POD mit NVIDIA GB200 NVL72