NVIDIA HGX H200 GPU’lar Duyuruldu
NVIDIA tarafından Microsoft, OpenAI ve gibisi yapay zeka hizmetleri için daha fazla sürat ve performans sunmayı vaat eden HGX H200 isimli yeni kuşak yapay zeka GPU’ları duyuruldu. İşte NVIDIA HGX H200 özellikleri hakkında ayrıntılar.
NVIDIA, HGX H200 GPU’nun şirketin Hopper çip mimarisine ve H200 Tensor Core GPU’suna dayandığını belirtiyor. Şirketin basın bültenindeki açıklaması şu biçimde: “NVIDIA H200, HBM3e’yi sunan birinci GPU’dur; üretken yapay zeka ve büyük lisan modellerinin hızlandırılmasını desteklemek için daha süratli ve daha büyük bellek, tıpkı vakitte HPC iş yükleri için bilimsel bilgi süreci geliştirir. HBM3e ile NVIDIA H200, saniyede 4,8 terabayt suratında 141 GB bellek sunarken evvelki modeli NVIDIA A100 ile karşılaştırıldığında neredeyse iki kat kapasite ve 2,4 kat daha fazla bant genişliği sağlar.”
NVIDIA, yeni çipin Llama 2 büyük lisan modelini çalıştırdığında H100’e kıyasla neredeyse iki kat daha fazla çıktı suratı sunacağını tez ediyor.
Şirket, ortalarında Microsoft Azure, Amazon Web Services, Google Cloud ve Oracle Cloud Infrastructure’ın da bulunduğu en büyük bulut hizmetlerinin yeni HGX H200 GPU’yu satın almak için şimdiden kaydolduğunu belirtti. HGX H200 GPU, Eski HGX H100 donanım ve yazılım sistemleriyle uyumlu dört yollu ve sekiz yollu konfigürasyonlarda kullanılabiliyor.
NVIDIA, sekiz taraflı HGX H200’nun üretken yapay zeka ve HPC uygulamalarında en yüksek performans için 32 petafloptan fazla FP8 derin öğrenme süreci ve 1,1 TB toplam yüksek bant genişlikli bellek sağladığını söz ediyor.
Ayrıca ASRock Rack, ASUS, Dell Technologies, Gigabyte, Hewlett Packard Enterprise, Lenovo ve çok daha fazlasının da ortalarında bulunduğu çok sayıda sunucu donanımı ortağı, eski H100 sistemlerini yeni H200 yongasıyla yükseltebilecek.
HGX H200 GPU, sunucu bilgisayar şirketlerinden ve bulut tabanlı işletmelerden 2024’ün ikinci çeyreğinde temin edilebilecek.
Halkalı Merkez PlayStation Cafe sitesinden daha fazla şey keşfedin
Subscribe to get the latest posts sent to your email.