Nvidia erweitert die Unterstützung für ARM-CPUs mit seinem vollständigen Stapel an AI- und HPC-Software

Hardware /. Nvidia erweitert die Unterstützung für ARM-CPUs mit seinem vollständigen Stapel an AI- und HPC-Software 4 Minuten gelesen

Nvidia Ampere



Nvidia hat heute endlich die Unterstützung von Prozessoren mit ARM-Architektur zusammen mit seinem gesamten Stapel an AI- und HPC-Software angekündigt. Nvidia ist mit ARM bestens vertraut, da sie die Architektur in ihre Tegra-Chips und andere System-on-Chip-Produkte für tragbare Spiele, autonome Fahrzeuge, Robotik und eingebettete KI-Computer integriert haben.

Warum jetzt?

ARM gibt es schon eine Weile, aber seine Verwendung in HPC-Systemen gab es bis zu einigen Jahren nicht. Fast alle HPC-Systeme verwenden seit langem Chips von Intel, was zu einer hervorragenden Unterstützung für ältere Software und Bibliotheken führt.



Im Laufe der Jahre hat ARM unermüdlich daran gearbeitet, ein Ökosystem aufzubauen, das seine Architektur zu einer praktikablen Alternative zu x86-Chips machen kann. Das Mont-Blanc-Projekt war eine große Initiative in diese Richtung.



Mont-Blanc-Partner mussten bei der Entwicklung von Arm-HPC-Testsystemen, die auf 32-Bit-Mobiltelefontechnologie sowie Portierungs- und Optimierungssoftware und -tools basieren, von vorne beginnen, um ein Arm-Software-Ökosystem zu erstellen. Im Jahr 2015 setzte Mont-Blanc den weltweit ersten armbasierten HPC-Cluster mit über 2.000 mobilen CPUs ein. Dieses System hat dazu beigetragen, die Realisierbarkeit der Verwendung der Arm-Technologie für HPC zu demonstrieren.



- - OAG

Diese Initiativen tragen endlich Früchte und Chips mit ARM-Architektur werden zunehmend in verschiedenen HPC-Systemen auf der ganzen Welt eingesetzt.

Nvidias Geschäftsinteressen an Rechenzentren

Nvidia dominiert bereits einen großen Teil des GPU-Geschäfts für Endverbraucher und hat im Laufe der Jahre einen seriösen Hardware- und Software-Stack für Workstations erstellt. Auf der Softwareseite gibt es viele Lösungen für KI- und Deep Learning-Workloads. Alle diese Workloads können durch GPUs beschleunigt werden, und hier kommen ihre Tesla- und Volta-GPUs ins Spiel.



Dies hat der Finanzierung des Unternehmens geholfen, und laut einem Artikel über Fobes authored by Karl Freund “ Im ersten Quartal 2019 von NVIDIA übertraf das Unternehmen erneut die Erwartungen und verzeichnete ein Wachstum des Gesamtumsatzes von 66%, einschließlich eines Wachstums von 71% im brandaktuellen Rechenzentrumsgeschäft (701 Mio. USD für das Quartal). Für NVIDIA umfasst das Segment „Rechenzentrum“ High-Performance Computing (HPC), von Rechenzentren gehostete Grafiken und KI-Beschleunigung. “

Dies sind auch wichtige Themen in den Keynotes der Anleger von Nvidia. Nach der Übernahme von Mellanox durch Nvidia, die wir abgedeckt haben Hier , CEO Jensen Huang teilte einige Erkenntnisse hinter der Entscheidung mit, dass „ Die Strategie verdoppelt sich auf Rechenzentren, und wir kombinieren und vereinen zwei führende Anbieter von Hochleistungs-Computertechnologien. Wir konzentrieren uns auf beschleunigtes Computing für Hochleistungscomputer, und Mellanox konzentriert sich auf Vernetzung und Speicherung für Hochleistungscomputer. Wir haben die beiden Unternehmen unter einem Dach zusammengefasst. Unsere Vision ist es, dass Rechenzentren heute die wichtigsten Computer der Welt sind und dass künftige Rechenzentren aller Art, wenn sich die Arbeitslast weiter ändert - was wirklich durch künstliche Intelligenz und Datenanalyse ausgelöst wird - wie Hochleistung gebaut werden Computers. Hyperscale-Rechenzentren wurden entwickelt, um Milliarden von Menschen Dienste und Lightweight-Computing bereitzustellen. In den letzten Jahren hat das Aufkommen von künstlicher Intelligenz, maschinellem Lernen und Datenanalyse die Rechenzentren so stark belastet, und der Grund dafür ist, dass die Datengröße und die Rechengröße so groß sind, dass sie nicht auf eines passen Computer. Es muss also auf mehrere Computer verteilt werden, und die Hochleistungskonnektivität, damit diese Computer zusammenarbeiten können, wird immer wichtiger. Dies ist der Grund, warum Mellanox so gut gewachsen ist und warum über SmartNICs und intelligente Fabrics und softwaredefinierte Netzwerke gesprochen wird. Alle diese Gespräche führen zum selben Ort, und in dieser Zukunft ist das Rechenzentrum eine riesige Rechenmaschine, die kohärent ist - und die es vielen Menschen ermöglicht, sie weiterhin gemeinsam zu nutzen -, aber nur wenigen Menschen ermöglicht, sehr große Anwendungen auszuführen auf sie auch. Wir glauben, dass in Zukunft von Rechenzentren die Berechnung nicht am Server beginnen und enden wird, sondern sich in das Netzwerk hinein erstreckt und das Netzwerk selbst Teil der Computerstruktur wird. Langfristig denke ich, dass wir in der Lage sind, Computerarchitekturen im Rechenzentrumsmaßstab zu erstellen. ''

ARM bereit für den Erfolg

ARM-Chips versorgen die meisten Mobilgeräte auf der ganzen Welt mit Strom, sodass die Architektur vom Design her energieeffizient bleibt. Da die Architektur lizenziert ist, können mit ARM mehrere Siliziumhersteller in Betracht gezogen werden.

Der Stromverbrauch bleibt bei HPCs ein großes Problem, und die Verwendung von ARM kann dieses Problem in hohem Maße ausgleichen. Selbst mit Software wurden bei den Mont-Blanc-Projekten viele wissenschaftliche Bibliotheken und Tools für ARM entwickelt. Dies spielt eine große Rolle bei der Weiterentwicklung des gesamten Ökosystems.

Die Verwendung von ARM in HPCs und Rechenzentren ist im Vergleich zu x86-Systemen noch gering, aber Nvidia sieht hier das Potenzial. Ihr Erzrivale AMD hat auch begonnen, im HPC- und Rechenzentrumsmarkt mit seinen EPYC-Serverprozessoren und Radeon Instinct GPU-Beschleunigern hart zu konkurrieren. Daher ist es für Nvidia wichtig, ARM jetzt einzuführen und ihre Software-Suite (CUDA-X HPC usw.) anzubieten. Im Gegensatz zu einigen Herstellern stellt Nvidia keine CPUs her, daher fehlt ihnen die CPU-GPU-Kohärenz, die AMD und Intel bieten können.

Im Nachhinein kann Nvidia eine Partnerschaft mit ARM stärken, as NextPlatform zu Recht sagen “ Nvidia und Arm könnten eine Partnerschaft eingehen, um NVLink-IP-Blöcke für diejenigen verfügbar zu machen, die Neoverse-Lizenzen kaufen. Dies ermöglicht eine engere Kopplung mit GPUs, einschließlich Speicheratomik und Speicherkohärenz über die CPU-GPU-Rechenkomplexe hinweg. ''

Dieser Schritt wird ARMs Fall als praktikable Architekturalternative zu x86-HPCs definitiv unterstützen. Wir können irgendwann in der Zukunft einen ähnlichen Schritt von AMD erwarten, da sie ihre Radeon Instinct-GPUs weiterhin aggressiv vorantreiben.

Stichworte ARM nvidia