Nvidia A800: Rechen-GPU für China ist deutlich langsamer

08. Mai 2023, 12:16 |  0 Kommentare


Bild: MyDrivers

Dass die China-Variante von Nvidias A100 langsamer ist, war absehbar, wie deutlich, bislang nicht. Dennoch ist sie extrem beliebt.

Einige seiner Rechen-GPUs verkauft Nvidia nur in China: Die beiden 800er-Modelle A800 und den Nachfolger H800 stellte das Unternehmen exklusiv für den chinesischen Markt vor. Sie sind eine Reaktion auf Beschränkungen der US-Regierung für den Export leistungsfähiger Rechentechnik in die Volksrepublik. Zur Leistung hat Nvidia bislang keine Aussagen gemacht, die liefert nun das chinesische Portal Mydrivers (via Tom's Hardware).

Laut Mydrivers hat Nvidia die Rechenleistung "auf etwa 70 Prozent der tatsächlichen Leistung der A100" beschnitten: Damit würde die A800 bei einfacher Genauigkeit (FP32) nur noch mit 109 statt 156 TFLOPS rechnen, mit den bei KI-Anwendungen beliebten FP16-Zahlen käme die Karte auf 218 TFlops. Das läge noch unter den Vorgaben der US-Regierung: Die erlaubt bei FP16 300 TFlops. Einen Lichtblick gibt es für Kunden: Bei dünn besetzten Matrizen kann das Feature Sparsity die Rechenleistung verdoppeln - und genau diese Art von Matrizen mit vielen Nullwerten ist bei KI-Anwendungen häufig, weshalb alle modernen Rechenbeschleuniger vergleichbare Fähigkeiten haben.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 2.0/5 (6 Stimmen)


Das könnte Dich auch interessieren:

Die Nvidia-App verlässt die Betaphase

Ein einziges Programm soll Zugriff auf alle Funktionen und weitere Tools rund um Nvidia-Grafikkarten bieten: übersichtlicher und ohne Zwang zum Log-in.



Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top