ASUS präsentiert den ESC AI POD mit NVIDIA GB200 NVL72 auf der Computex 2024
ASUS kündigte seinen neuesten Messeauftritt auf der Computex 2024 an und präsentierte eine umfassende Palette von KI-Servern für Anwendungen von generativer KI bis hin zu innovativen Speicherlösungen. Das Highlight dieser Veranstaltung ist die Spitze der ASUS KI-Lösungen - der brandneue ASUS ESC AI POD mit dem NVIDIA® GB200 NVL72 System. Ebenfalls zu sehen sind die neuesten ASUS NVIDIA MGX-basierten Systeme, darunter ESC NM1-E1, ESC NM2-E1 mit NVIDIA GB200 NVL2 und ESR1-511N-M1 mit NVIDIA GH200 Grace Hopper Superchips, sowie die neuesten ASUS Lösungen mit NVIDIA HGX H200 und Blackwell Grafikkarten.
ASUS hat sich der Bereitstellung von End-to-End-Lösungen und Software-Services verschrieben, die von hybriden Servern bis hin zu Edge-Computing-Implementierungen reichen. Mit diesem Showcase demonstriert ASUS seine Kompetenz in den Bereichen Serverinfrastruktur, Speicher, Rechenzentrumsarchitektur und sichere Softwareplattformen, um die breite Einführung von KI in verschiedenen Branchen voranzutreiben.
Einführung des ASUS ESC AI POD (ESC NM2N721-E1 mit NVIDIA GB200 NVL72)
Die umfangreiche Erfahrung von ASUS bei der Entwicklung von KI-Servern mit unvergleichlicher Leistung und Effizienz wurde durch die Zusammenarbeit mit NVIDIA noch verstärkt. Einer der Höhepunkte des Showcase ist das von NVIDIA Blackwell betriebene Scale-up-System mit größerem Formfaktor - ESC AI POD mit NVIDIA GB200 NVL72. Die vollständige Rack-Lösung ist eine Symphonie aus Grafikkarten, CPUs und Switches, die in blitzschneller, direkter Kommunikation harmonieren und das LLM-Training mit Billionen von Parametern sowie die Echtzeit-Inferenz beschleunigen. Sie ist mit dem neuesten NVIDIA GB200 Grace Blackwell Superchip und der NVIDIA NVLink Technologie der fünften Generation ausgestattet und unterstützt sowohl Flüssig-zu-Luft- als auch Flüssig-zu-Flüssig-Kühlungslösungen, um eine optimale KI-Rechenleistung zu erzielen.
Paul Ju, Corporate Vice President bei ASUS und Co-Head of Open Platform BG, betonte: “Unsere Partnerschaft mit NVIDIA, einem weltweit führenden Unternehmen im Bereich KI-Computing, unterstreicht unsere Kompetenz. Gemeinsam haben wir eine starke Synergie geschaffen, die es uns ermöglicht, KI-Server mit unvergleichlicher Leistung und Effizienz zu entwickeln.”
“ASUS verfügt über ein großes Fachwissen in den Bereichen Serverinfrastruktur und Rechenzentrumsarchitektur. Durch unsere Zusammenarbeit sind wir in der Lage, unseren Kunden hochmoderne, beschleunigte Computersysteme zu liefern”, sagte Kaustubh Sanghani, Vice President of GPU Product Management bei NVIDIA. “Auf der Computex wird ASUS eine breite Palette von Servern ausstellen, die auf der KI-Plattform von NVIDIA basieren und den besonderen Anforderungen von Unternehmen gerecht werden.”
Mehr KI-Erfolg mit den skalierbaren ASUS MGX-Lösungen
Um den Aufstieg generativer KI-Anwendungen voranzutreiben, hat ASUS eine ganze Reihe von Servern vorgestellt, die auf der NVIDIA MGX Architektur basieren. Dazu gehören die 2U ESC NM1-E1 und ESC NM2-E1 mit NVIDIA GB200 NVL2 Servern und der 1U ESR1-511N-M1. Mit der Leistung des NVIDIA GH200 Grace Hopper Superchips ist das ASUS NVIDIA MGX-basierte Angebot für umfangreiche KI- und HPC-Anwendungen ausgelegt, indem es nahtlose und schnelle Datenübertragungen, Deep-Learning (DL)-Training und -Inferenz, Datenanalyse und Hochleistungsberechnungen ermöglicht.
Maßgeschneiderte ASUS HGX-Lösung für HPC-Anforderungen
Zu den neuesten HGX-Servern von ASUS, die für HPC und KI entwickelt wurden, gehören der ESC N8, der mit Intel® Xeon® Scalable Prozessoren der 5. Generation und NVIDIA Blackwell Tensor Core Grafikkarten ausgestattet ist, sowie der ESC N8A, der mit AMD EPYC™ 9004 und NVIDIA Blackwell Grafikkarten arbeitet. Diese profitieren von einer verbesserten thermischen Lösung, die eine optimale Leistung und eine niedrigere PUE gewährleistet. Diese leistungsstarken NVIDIA HGX Server wurden für KI- und Data-Science-Entwicklungen entwickelt und bieten eine einzigartige Konfiguration mit nur einer GPU und nur einer Netzwerkkarte für maximalen Durchsatz bei rechenintensiven Aufgaben.
Software-definierte Rechenzentrumslösungen
ASUS hat sich darauf spezialisiert, maßgeschneiderte Lösungen für Rechenzentren zu entwickeln, die über das Übliche hinausgehen und erstklassige Hardware sowie umfassende, auf die Bedürfnisse von Unternehmen zugeschnittene Softwarelösungen bieten. Unsere Dienstleistungen decken alles ab, von der Systemüberprüfung bis hin zur Remote-Bereitstellung, um einen reibungslosen Betrieb zu gewährleisten, der für die Beschleunigung der KI-Entwicklung unerlässlich ist. Dazu gehört ein einheitliches Paket, das ein Webportal, einen Scheduler, Ressourcenzuweisungen und Serviceoperationen umfasst.
Darüber hinaus unterstützen die ASUS KI-Serverlösungen mit integrierten NVIDIA BlueField-3 SuperNICs und DPUs die NVIDIA Spectrum-X Ethernet-Netzwerkplattform, um erstklassige Netzwerkfunktionen für generative KI-Infrastrukturen bereitzustellen. Die NVIDIA NIM Inferenz-Microservices, die Teil der NVIDIA AI Enterprise Software-Plattform für generative KI sind, optimieren nicht nur den generativen KI-Inferenzprozess im Unternehmen, sondern beschleunigen auch die Laufzeit generativer KI und vereinfachen den Entwicklungsprozess für generative KI-Anwendungen. ASUS bietet auch maßgeschneiderte generative KI-Lösungen für Cloud- oder Unternehmenskunden an, und zwar durch die Zusammenarbeit mit unabhängigen Softwareanbietern (ISVs) - wie APMIC, die sich auf große Sprachmodelle und Unternehmensanwendungen spezialisiert haben.
Die Expertise von ASUS liegt darin, ein perfektes Gleichgewicht zwischen Hardware und Software zu finden, das es den Kunden ermöglicht, ihre Forschungs- und Innovationsbemühungen zu beschleunigen. Da ASUS im Serverbereich weiter auf dem Vormarsch ist, werden seine Lösungen für Rechenzentren in Verbindung mit den ASUS AI Foundry Services in kritischen Standorten weltweit eingesetzt.