NVIDIA, Süper Şarj Haznesi HGX H200ü Tanıttı

NVIDIA, Süper Şarj Haznesi HGX H200ü Tanıttı

NVIDIA, Süper Şarj Haznesi HGX H200ü tanıttı ve yapay zeka hesaplamasında önemli bir adım attı. NVIDIA Hopper mimarisini temel alan bu yeni platform, üretken yapay zeka ve yüksek performanslı bilgi işlem (HPC) iş yükleri için özel olarak tasarlanmış, gelişmiş bellek özellikleriyle devasa veri hacimlerini işleyen NVIDIA H200 Tensor Core GPU’ya sahiptir.

H200, yüksek bant genişliğine sahip (HBM3e) belleğe sahip ilk GPU olarak öne çıkıyor; üretken yapay zeka ve büyük dil modelleri (LLM’ler) için hayati önem taşıyan daha hızlı ve daha büyük bellek sunuyor ve HPC iş yükleri için bilimsel bilgi işlemi geliştiriyor. Saniyede 4,8 terabayt hızında 141 GB belleğe sahip olup, kapasiteyi neredeyse iki katına çıkarır ve selefi NVIDIA A100’e göre 2,4 kat daha fazla bant genişliği sunar.

Önde gelen sunucu üreticilerinin ve bulut hizmet sağlayıcılarının H200 tarafından desteklenen sistemlerinin 2024’ün ikinci çeyreğinde sevkiyata başlaması bekleniyor. NVIDIA’nın Hiper Ölçek ve HPC Başkan Yardımcısı Ian Buck, H200’ün çok büyük miktarlardaki verinin yüksek hızda işlenmesini önemli ölçüde geliştireceğini vurguluyor. Üretken yapay zeka ve HPC uygulamaları için gerekli olan hızlar.

Hopper mimarisi, önceki nesillere göre kayda değer bir performans artışına işaret ediyor ve NVIDIA TensorRT-LLM’nin son sürümü gibi devam eden yazılım güncellemeleriyle daha da geliştirildi . H200, Llama 2 gibi büyük dil modellerinde çıkarım hızını neredeyse iki katına çıkarmayı vaat ediyor ve gelecekteki yazılım güncellemelerinde daha fazla performans geliştirmesi bekleniyor.

H200 Özellikleri

NVIDIA H200 Tensör Çekirdek GPU
Form faktörü H200SXM
FP64 34 TFLOP
FP64 Tensör Çekirdeği 67 TFLOP
FP32 67 TFLOP
TF32 Tensör Çekirdeği 989 TFLOP
BFLOAT16 Tensör Çekirdeği 1.979 TFLOP
FP16 Tensör Çekirdeği 1.979 TFLOP
FP8 Tensör Çekirdeği 3.958 TFLOP
INT8 Tensör Çekirdeği 3.958 TFLOP
GPU Belleği 141 GB
GPU Bellek Bant Genişliği 4,8 TB/sn
Kod çözücüler 7 NVDEC 7 JPEG
Maksimum Termal Tasarım Gücü (TDP) 700W’a kadar (yapılandırılabilir)
Çoklu Örnek GPU’lar Her biri 16,5 GB’ta 7’ye kadar MIG
Ara bağlantı NVIDIA NVLink: 900 GB/sn PCIe Gen5: 128 GB/sn
Sunucu Seçenekleri NVIDIA HGX H200 ortağı ve 4 veya 8 GPU’lu NVIDIA Sertifikalı Sistemler

Uyarlanabilir Form Faktörleri

NVIDIA H200, HGX H100 sistemleriyle uyumlu, dört ve sekiz yollu konfigürasyonlardaki NVIDIA HGX H200 sunucu anakartları da dahil olmak üzere çeşitli form faktörlerinde satışa sunulacak. Ayrıca HBM3e’li NVIDIA GH200 Grace Hopper Superchip’te de mevcuttur . Yakın zamanda NVIDIA GH200 Grace Hopper Supperchip hakkında bir yazı yayınladık . Bu seçenekler, H200’ün şirket içi, bulut, hibrit bulut ve uç ortamlar dahil olmak üzere farklı veri merkezi türlerine uyarlanabilirliğini sağlar.

Amazon Web Services, Google Cloud, Microsoft Azure ve Oracle Cloud Infrastructure dahil olmak üzere önemli sunucu üreticileri ve bulut hizmeti sağlayıcıları, gelecek yıldan itibaren H200 tabanlı bulut sunucularını dağıtmaya hazırlanıyor.

NVIDIA NVLink ve NVSwitch yüksek hızlı ara bağlantılarıyla donatılmış HGX H200, 175 milyar parametrenin ötesindeki modeller için eğitim ve çıkarım da dahil olmak üzere çeşitli iş yükleri için en üst performansı sunar. Sekiz yönlü HGX H200 yapılandırması, 32 petafloptan fazla FP8 derin öğrenme hesaplaması ve 1,1 TB yüksek bant genişliğine sahip bellek sağlar; NVIDIA Grace CPU’lar ve NVLink-C2C ara bağlantısıyla birleştirilmiş üretken yapay zeka ve HPC uygulamaları için idealdir; H200, GH200 Grace’i oluşturur Büyük ölçekli HPC ve yapay zeka uygulamaları için tasarlanmış bir modül olan HBM3e’li Hopper Superchip.

NVIDIA AI Enterprise paketi de dahil olmak üzere NVIDIA’nın tam kapsamlı yazılım desteği, geliştiricilerin ve kuruluşların yapay zekadan HPC’ye kadar uygulamalar oluşturmasına ve hızlandırmasına olanak tanır. NVIDIA H200, 2024’ün ikinci çeyreğinden itibaren küresel sistem üreticileri ve bulut hizmet sağlayıcılarında satışa sunulacak ve yapay zeka ve HPC yeteneklerinde yeni bir döneme işaret edecek.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir