ASUS stellt auf der Computex 2025 ein fortschrittliches AI-POD-Design mit NVIDIA vor
ASUS hat auf der Computex 2025 bekannt gegeben, dass es mit der Einführung des NVIDIA® Enterprise AI Factory-validierten Designs, das fortschrittliche ASUS AI POD-Designs mit optimierten Referenzarchitekturen umfasst, die nächste Generation intelligenter Infrastrukturen vorantreibt. Diese Lösungen sind als NVIDIA-zertifizierte Systeme für die Plattformen NVIDIA Grace Blackwell, HGX und MGX erhältlich und unterstützen sowohl luftgekühlte als auch flüssigkeitsgekühlte Rechenzentren.
Diese Innovationen wurden entwickelt, um die Einführung von agentenbasierter KI in jeder Größenordnung zu beschleunigen. Sie bieten unübertroffene Skalierbarkeit, Leistung und thermische Effizienz und sind damit die ultimative Wahl für Unternehmen, die KI mit beispielloser Geschwindigkeit und in beispiellosem Umfang einsetzen möchten.
NVIDIA Enterprise AI Factory mit ASUS AI POD
Das validierte NVIDIA Enterprise AI Factory mit ASUS AI POD-Design bietet eine Anleitung für die Entwicklung, Bereitstellung und Verwaltung von agentenbasierter KI, physischer KI und HPC-Workloads auf der NVIDIA Blackwell-Plattform vor Ort. Es wurde für die Unternehmens-IT entwickelt und bietet beschleunigtes Computing, Netzwerke, Speicher und Software, um eine schnellere Amortisierung von KI-Fabrik-Bereitstellungen zu ermöglichen und gleichzeitig die Bereitstellungsrisiken zu minimieren.
Im Folgenden finden Sie Referenzarchitekturen, die Kunden bei der Anwendung bewährter Verfahren unterstützen und als Wissensdatenbank und standardisiertes Framework für verschiedene Anwendungen dienen.
Für massives Computing bietet der fortschrittliche ASUS AI POD, beschleunigt durch NVIDIA GB200/GB300 NVL72-Racks und mit NVIDIA Quantum InfiniBand- oder NVIDIA Spectrum-X Ethernet-Netzwerkplattformen, eine Flüssigkeitskühlung für einen blockierungsfreien 576-GPU-Cluster über acht Racks oder eine luftgekühlte Lösung für ein Rack mit 72 GPUs. Diese extrem kompakte und effiziente Architektur setzt neue Maßstäbe in Sachen KI-Rechenleistung und Effizienz.
KI-fähige Racks: Skalierbare Leistung für LLMs und immersive Workloads
ASUS präsentiert NVIDIA MGX-konforme Rack-Designs mit der ESC8000-Serie mit zwei Intel® Xeon® 6-Prozessoren und RTX PRO™ 6000 Blackwell Server Edition mit dem neuesten NVIDIA ConnectX-8 SuperNIC - mit Geschwindigkeiten von bis zu 800 Gb/s oder anderen skalierbaren Konfigurationen - für außergewöhnliche Erweiterbarkeit und Leistung für modernste KI-Workloads. Die Integration mit der NVIDIA AI Enterprise Softwareplattform bietet hoch skalierbare Full-Stack-Serverlösungen, die die anspruchsvollen Anforderungen moderner Computing-Anwendungen erfüllen.
Darüber hinaus bietet die von ASUS optimierte NVIDIA HGX-Referenzarchitektur unübertroffene Effizienz, Wärmemanagement und GPU-Dichte für beschleunigte KI-Feinabstimmung, LLM-Inferenz und Training. Diese zentralisierte Rack-Lösung basiert auf dem ASUS XA NB3I-E12 mit NVIDIA HGX B300 oder ESC NB8-E11 mit NVIDIA HGX B200 und bietet eine unübertroffene Fertigungskapazität für flüssigkeitsgekühlte oder luftgekühlte Rack-Systeme. Damit sind eine pünktliche Lieferung, reduzierte Gesamtbetriebskosten (TCO) und konsistente Leistung gewährleistet.
Entwickelt für die KI-Fabrik, ermöglicht agentenbasierte KI der nächsten Generation
Die ASUS Infrastruktur ist mit der agentenbasierten KI-Showcase von NVIDIA integriert und unterstützt autonome, selbstbestimmte KI mit Echtzeit-Lernen und skalierbaren KI-Agenten für Geschäftsanwendungen in verschiedenen Branchen.
Als weltweit führender Anbieter von KI-Infrastrukturlösungen bietet ASUS komplette Rechenzentrumslösungen mit Luft- und Flüssigkeitskühlung, die unübertroffene Leistung, Effizienz und Zuverlässigkeit bieten. Wir bieten außerdem ultraschnelle Netzwerk-, Verkabelungs- und Speicher-Rack-Architekturen mit NVIDIA-zertifiziertem Speicher, RS501A-E12-RS12U sowie der VS320D-Serie, um eine nahtlose Skalierbarkeit für KI-/HPC-Anwendungen zu gewährleisten. Darüber hinaus optimieren die fortschrittliche SLURM-basierte Workload-Planung und das NVIDIA UFM Fabric Management für NVIDIA Quantum InfiniBand-Netzwerke die Ressourcenauslastung, während das WEKA Parallel File System und ASUS ProGuard SAN Storage eine schnelle und skalierbare Datenverarbeitung ermöglichen.
ASUS bietet außerdem eine umfassende Softwareplattform und Services, darunter das ASUS Control Center (Data Center Edition) und das ASUS Infrastructure Deployment Center (AIDC), die eine nahtlose Entwicklung, Orchestrierung und Bereitstellung von KI-Modellen gewährleisten. Mit den ASUS L11/L12-validierten Lösungen können Unternehmen KI dank erstklassiger Bereitstellung und Support sicher in großem Maßstab einsetzen. Vom Design bis zur Bereitstellung ist ASUS der vertrauenswürdige Partner für Innovationen der nächsten Generation im Bereich KI-Fabriken.