Nachrichten

  • Techbord - Nvidia verfolgt eine Multi-Chip-Modularchitektur, um die sich entwickelnden Datenanforderungen zu erfüllen

    Nvidia verfolgt eine Multi-Chip-Modularchitektur, um die sich entwickelnden Datenanforderungen zu erfüllen
    Vor 10 Tagen und 3 Stunden

    Warum es wichtig ist: Derzeit verfügbare Deep-Learning-Ressourcen fallen aufgrund zunehmender Komplexität, unterschiedlicher Ressourcenanforderungen und Einschränkungen durch vorhandene Hardwarearchitekturen ins Hintertreffen. Mehrere Nvidia-Forscher haben kürzlich einen technischen Artikel veröffentlicht, in dem sie das Streben des Unternehmens nach Multi-Chip-Modulen (MCM) skizzieren, um diesen

    Grafikprozessoren (GPUs) sind aufgrund ihrer inhärenten Fähigkeiten und Optimierungen zu einer der wichtigsten Ressourcen zur Unterstützung von DL geworden. Die COPA-GPU basiert auf der Erkenntnis, dass herkömmliche konvergente GPU-Designs mit domänenspezifischer Hardware schnell zu einer wenig praktikablen Lösung werden. Diese konvergenten GPU-Lösungen basieren auf einer Architektur, die aus dem traditionellen Die sowie der Integration spezialisierter Hardware wie High-Bandbreite-Speicher (HBM), Tensor Cores (Nvidia)/Matrix Cores (AMD), Raytracing (RT)-Kerne usw. besteht. Dieses konvergente Design führt zu Hardware, die für einige Aufgaben gut geeignet sein kann, aber bei der Ausführung anderer ineffizient.

    Im Gegensatz zu aktuellen monolithischen GPU-Designs, die alle spezifischen Ausführungskomponenten und das Caching in einem Paket kombinieren, ist das COPA- Die GPU-Architektur bietet die Möglichkeit, mehrere Hardwareblöcke zu mischen und abzugleichen, um die dynamischen Arbeitslasten der heutigen High Performance Computing (HPC) und Deep Learning (DL) Umgebungen besser zu bewältigen. Diese Möglichkeit, mehr Funktionen zu integrieren und mehrere Arten von Workloads zu berücksichtigen, kann zu einer höheren Wiederverwendung von GPUs führen und vor allem Datenwissenschaftlern mehr Möglichkeiten bieten, die Grenzen dessen, was mit ihren vorhandenen Ressourcen möglich ist, zu verschieben.

    https://techbord.com Nvidia verfolgt eine Multi-Chip-Modularchitektur, um die sich entwickelnden Datenanforderungen zu erfüllen

    Obwohl oft in einen Topf geworfen Zusammen weisen die Konzepte der künstlichen Intelligenz (KI), des maschinellen Lernens (ML) und der DL deutliche Unterschiede auf. DL, eine Teilmenge von KI und ML, versucht, die Art und Weise, wie unser menschliches Gehirn mit Informationen umgeht, nachzuahmen, indem es Filter verwendet, um Informationen vorherzusagen und zu klassifizieren. DL ist die treibende Kraft hinter vielen automatisierten KI-Funktionen, die alles tun können, vom Fahren unserer Autos bis zur Überwachung von Finanzsystemen auf betrügerische Aktivitäten.

    Während AMD und andere die Chiplet- und Chip-Stack-Technologie als nächsten Schritt in ihrer CPU- und GPU-Entwicklung in den letzten Jahren – das Konzept von MCM ist alles andere als neu. MCMs können bis auf die Bubble-Memory-MCMs von IBM und 3081 Mainframes in den 1970er und 1980er Jahren zurückdatiert werden.





Neueste Nachrichten aus dem hardware